Эксперты отмечают, что ведущие ИИ-модели в два раза увеличили количество ложных ответов — с 18% до 35% — несмотря на внедрение новых технологий и онлайн-поиска. Почему искусственный интеллект стал ошибаться чаще, насколько это опасно и как снизить риски, разбираются «Известия».
Как растет число неверных ответов у ИИ
Американская компания NewsGuard предупредила о росте недостоверной информации среди популярных чат-ботов, включая ChatGPT и Perplexity. По данным экспертов, несмотря на технологические улучшения и интеграцию веб-поиска, доля ложных утверждений увеличилась с 18% до 35%.
В исследовании проверили десять моделей ИИ, каждой задали по десять заведомо ложных утверждений о бизнесе, брендах и политике. Вопросы делились на три группы: предполагающие правдивость, нейтральные и провокационные. Цель экспертов — оценить способность моделей проверять факты и их устойчивость к дезинформации.
Уровень ложных ответов оказался следующим:
- Pi (Inflection) — 57%;
- Perplexity (Perplexity AI) — с 0 до 47%;
- ChatGPT (OpenAI) — с 33 до 40%;
- Grok (xAI) — с 13 до 33%;
- Gemini (Google) — 17%;
- Claude (Anthropic) — 10%.
Причины роста ошибок у чат-ботов
Фото: ИЗВЕСТИЯ/Сергей Коньков
Аналитики NewsGuard объясняют ухудшение статистики тем, что современные ИИ отвечают на любые запросы без достаточной проверки, тогда как в 2024 году модели воздерживались примерно от трети ответов.
С этим согласен Александр Кобозев, директор направления Data Fusion Лиги цифровой экономики:
«Подключение встроенного веб-поиска без проверки источников повышает риск ошибок. Модели часто ссылаются на сайты-двойники или псевдо-СМИ, принимая их за авторитетные ресурсы».
Также ситуацию усугубляют кампании по «дрессировке» ИИ (LLM grooming), когда недобросовестные сайты публикуют материалы для поисковых роботов, чтобы ложная информация чаще попадала в ответы моделей.
Особенно уязвимы многоязычные запросы: в аудите NewsGuard наибольший процент ошибок и отказов зафиксирован при русскоязычных и китайских вопросах — более 50%.
Константин Горбунов из компании «Код Безопасности» добавляет, что современные нейросети активно создают контент — статьи, дипфейки, посты для соцсетей.
Использование веб-поиска и снижение отказов от ответов приводит к тому, что модели обучаются на собственной выдаче, что похоже на «испорченный телефон».
Станислав Ежов из «Группы Астра» отмечает, что причина кроется в архитектуре больших языковых моделей: они прогнозируют следующее слово по статистике, а не понимают контекст.
Будущее фейковых ответов
ИЗВЕСТИЯ/Сергей Коньков
Проблема может сохраняться долго, предупреждает Татьяна Буторина из «Газинформсервис»:
«Разработчики торопятся выпускать модели, обучая их на небольших объемах данных, где есть и правдивая, и ложная информация. От этого страдают результаты».
Она также подчеркивает, что узкие и новые темы повышают риск «придумывания» ответов, особенно если пользователь задает некорректный или неполный промпт.
Никита Новиков из Angara Security уверен, что рынок вынудит корпорации улучшать качество ИИ: появятся фильтры, слои фактчекинга, системы доверенных источников.
«Снизить долю ложных ответов поможет более строгий отказ от сомнительных запросов и сопоставление с базами ложных нарративов», — добавляет Кобозев.
Активная работа уже ведется: в России созданы методы выявления «галлюцинаций» ИИ с точностью на 30% выше существующих решений.
Как обезопасить себя от ложной информации
Никита Степнов из агентства «Со-общение» предупреждает, что пользователи часто доверяют ИИ, когда не могут проверить информацию. Это может приводить к опасным последствиям — от запуска вредоносного кода до приема небезопасных медикаментов.
Константин Горбунов советует:
«К ответам ИИ нужно относиться критически и проверять их. Вопросы здоровья, лекарств, финансов и права следует адресовать только профильным специалистам. Не делитесь конфиденциальной информацией с чат-ботами».
Технические меры включают создание доверенных ИИ-систем и комбинирование нейросетей с проверкой фактов. Например, один ИИ генерирует текст, а второй слой проверяет данные критически.
«Важно также маркировать уровень уверенности модели, показывая пользователю, что это предположение, и делать прозрачными источники информации», — добавляет Новиков.
Константин Горбунов предлагает маркировать контент, созданный ИИ, чтобы исключить его из обучающих наборов или снизить к нему доверие при дальнейшем обучении моделей.
Еще больше новостей — у Пятого канала в мессенджере MAX.