Галлюцинации в LLM (large language models) — это не «сбои» в привычном инженерном смысле, а системное следствие того, как такие модели устроены. Чтобы разобраться глубоко, важно понять механизм их возникновения, типологию и практические методы снижения.
Что такое галлюцинации LLM?
Галлюцинацией называют ситуацию, когда модель генерирует:
- фактически неверную информацию,
- вымышленные детали (ссылки, цитаты, события),
- логически несогласованные утверждения,
при этом делает это уверенно и грамматически корректно.
Ключевой момент: модель не проверяет факты, она прогнозирует вероятное продолжение текста. С точки зрения математики, она оптимизирует вероятность последовательности токенов, а не истинность.

Почему возникают галлюцинации в LLM?
1. Природа вероятностной генерации
LLM обучается предсказывать следующий токен:
[
P(w_t \mid w_1, w_2, …, w_{t-1})
]
Она выбирает наиболее правдоподобное продолжение, а не наиболее истинное. Если в обучающих данных встречались похожие шаблоны, модель может «достроить» несуществующий факт.
2. Неполное или размытое знание
Модель не хранит факты как база данных. Знание распределено в весах:
- если информация встречалась редко → высокая вероятность ошибки,
- если информация противоречива → модель усредняет.
3. Давление на полноту ответа
Если пользователь задаёт вопрос, модель предпочтёт ответить хоть что-то, чем сказать «не знаю». Это связано с обучением на данных, где ответы почти всегда присутствуют.
4. Ошибки в цепочке рассуждений
При сложных задачах (логика, математика, код) модель может:
- сделать неверный промежуточный вывод,
- но продолжить рассуждение так, будто всё корректно.
5. Проблема длинного контекста
При увеличении контекста:
- растёт вероятность забывания деталей,
- усиливается «дрейф» смысла.
6. Конфабуляция (semantic filling)
Если модель знает структуру, но не знает деталей, она заполняет пробелы правдоподобными элементами:
- вымышленные источники,
- несуществующие исследования,
- придуманные имена.

Типы галлюцинаций LLM
1. Фактические
Неверные даты, события, определения.
2. Библиографические
Несуществующие статьи, DOI, ссылки.
3. Логические
Нарушение причинно-следственных связей.
4. Контекстные
Игнорирование данных из текущего диалога.
5. Математические
Ошибки в вычислениях или выводах.
Почему галлюцинации в LLM сложно устранить полностью?
Это фундаментальное ограничение архитектуры:
- модель не имеет встроенного механизма «истины»,
- нет прямой связи с реальным миром,
- обучение идёт на статистике, а не на верификации.
Поэтому речь всегда идёт не об устранении, а о снижении вероятности.

Методы защиты от галлюцинаций LLM
1. Retrieval-Augmented Generation (RAG)
Модель получает внешние данные (документы, базы знаний) и опирается на них.
Эффект:
- снижает выдумывание,
- увеличивает проверяемость.
Ограничение:
- зависит от качества retrieval.
2. Chain-of-Thought (цепочка рассуждений)
Модель явно расписывает шаги решения.
Плюс:
- легче обнаружить ошибку,
- повышается точность в задачах рассуждения.
Минус:
- может «галлюцинировать шаги», если базовое понимание слабое.
3. Self-consistency
Генерация нескольких ответов с последующим выбором наиболее согласованного.
Идея:
- ошибки случайны,
- согласованность повышает вероятность правильности.
4. Fact-checking модели (второй уровень)
Использование отдельной модели для проверки:
- противоречий,
- источников,
- логики.
5. Инструментальный доступ (tools)
Подключение:
- поисковых систем,
- калькуляторов,
- API.
Это снижает:
- математические ошибки,
- устаревшую информацию.
6. Instruction tuning и RLHF
Обучение на:
- корректных ответах,
- примерах отказа («не знаю»).
Результат:
- модель чаще признаёт неопределённость.

Практические способы борьбы (для пользователей)
1. Чёткие и узкие запросы
Плохо:
Расскажи всё про квантовую физику
Лучше:
Объясни принцип суперпозиции на уровне бакалавра
2. Запрос источников и обоснований
Например:
- «приведи аргументы»
- «покажи ход рассуждений»
3. Проверка критических фактов
Особенно важно для:
- медицины,
- права,
- финансов.
4. Разбиение задачи
Вместо одного сложного запроса — несколько этапов:
- сначала план,
- затем детали.
5. Переформулирование вопроса
Если ответ вызывает сомнение — спросить иначе и сравнить.
Методы борьбы на уровне разработчиков
1. Fine-tuning на проверенных данных
2. Использование knowledge graphs
3. Контроль температуры (sampling)
- низкая температура → меньше галлюцинаций,
- высокая → больше креативности и риска.
4. Calibration (оценка уверенности)
Модель учится:
- сигнализировать неопределённость,
- не давать ложную уверенность.
5. Контроль декодирования
Методы вроде:
- beam search,
- nucleus sampling (top-p),
позволяют управлять вероятностным выбором.
Галлюцинации — это не «баг», а побочный эффект генеративной природы LLM.
Поэтому стратегия всегда комбинированная:
- архитектурные решения (RAG, tools),
- обучение (RLHF, fine-tuning),
- пользовательские практики (формулировка запросов),
- пост-проверка.