GPT, Claude, Gemini — все модели через единый API. Работает в России без VPN.Начать бесплатно
Основы

Галлюцинация

Ситуация, когда AI уверенно выдаёт неверную или выдуманную информацию.

Галлюцинация (Hallucination) — феномен, когда AI модель генерирует правдоподобную, но ложную информацию.

Почему это происходит:

  • Модель обучена предсказывать "вероятный" текст
  • Она не имеет понимания истинности
  • Может смешивать факты из разных источников

Как минимизировать галлюцинации:

  • Использовать RAG для фактологических запросов
  • Просить модель признавать неуверенность
  • Проверять критически важную информацию
  • Использовать низкую temperature

Примеры

  • Модель может выдумать несуществующую цитату
  • Придумать факты о реальном человеке

Попробуйте AI на практике

AITUNNEL даёт доступ к GPT-5, Claude, Gemini и другим моделям. Изучайте AI на практике, а не только в теории.

50+ моделейДокументацияПримеры кода
Начать работуРегистрация за 1 минуту