Галлюцинация (Hallucination) — феномен, когда AI модель генерирует правдоподобную, но ложную информацию.
Почему это происходит:
- Модель обучена предсказывать "вероятный" текст
- Она не имеет понимания истинности
- Может смешивать факты из разных источников
Как минимизировать галлюцинации:
- Использовать RAG для фактологических запросов
- Просить модель признавать неуверенность
- Проверять критически важную информацию
- Использовать низкую temperature
Примеры
- Модель может выдумать несуществующую цитату
- Придумать факты о реальном человеке
Попробуйте AI на практике
AITUNNEL даёт доступ к GPT-5, Claude, Gemini и другим моделям. Изучайте AI на практике, а не только в теории.
50+ моделейДокументацияПримеры кода
Начать работуРегистрация за 1 минуту