Роботы опять обманули: нейросети стали чаще выдавать недостоверную информацию

Пятый канал 7 часов назад 24
Preview

Эксперты отмечают, что ведущие ИИ-модели в два раза увеличили количество ложных ответов — с 18% до 35% — несмотря на внедрение новых технологий и онлайн-поиска. Почему искусственный интеллект стал ошибаться чаще, насколько это опасно и как снизить риски, разбираются «Известия».

Как растет число неверных ответов у ИИ

Американская компания NewsGuard предупредила о росте недостоверной информации среди популярных чат-ботов, включая ChatGPT и Perplexity. По данным экспертов, несмотря на технологические улучшения и интеграцию веб-поиска, доля ложных утверждений увеличилась с 18% до 35%.

В исследовании проверили десять моделей ИИ, каждой задали по десять заведомо ложных утверждений о бизнесе, брендах и политике. Вопросы делились на три группы: предполагающие правдивость, нейтральные и провокационные. Цель экспертов — оценить способность моделей проверять факты и их устойчивость к дезинформации.

Уровень ложных ответов оказался следующим:

  • Pi (Inflection) — 57%;
  • Perplexity (Perplexity AI) — с 0 до 47%;
  • ChatGPT (OpenAI) — с 33 до 40%;
  • Grok (xAI) — с 13 до 33%;
  • Gemini (Google) — 17%;
  • Claude (Anthropic) — 10%.

Причины роста ошибок у чат-ботов

Фото: ИЗВЕСТИЯ/Сергей Коньков

Аналитики NewsGuard объясняют ухудшение статистики тем, что современные ИИ отвечают на любые запросы без достаточной проверки, тогда как в 2024 году модели воздерживались примерно от трети ответов.

С этим согласен Александр Кобозев, директор направления Data Fusion Лиги цифровой экономики:

«Подключение встроенного веб-поиска без проверки источников повышает риск ошибок. Модели часто ссылаются на сайты-двойники или псевдо-СМИ, принимая их за авторитетные ресурсы».

Также ситуацию усугубляют кампании по «дрессировке» ИИ (LLM grooming), когда недобросовестные сайты публикуют материалы для поисковых роботов, чтобы ложная информация чаще попадала в ответы моделей.

Особенно уязвимы многоязычные запросы: в аудите NewsGuard наибольший процент ошибок и отказов зафиксирован при русскоязычных и китайских вопросах — более 50%.

Константин Горбунов из компании «Код Безопасности» добавляет, что современные нейросети активно создают контент — статьи, дипфейки, посты для соцсетей.

Использование веб-поиска и снижение отказов от ответов приводит к тому, что модели обучаются на собственной выдаче, что похоже на «испорченный телефон».

Станислав Ежов из «Группы Астра» отмечает, что причина кроется в архитектуре больших языковых моделей: они прогнозируют следующее слово по статистике, а не понимают контекст.

Будущее фейковых ответов

ИЗВЕСТИЯ/Сергей Коньков

Проблема может сохраняться долго, предупреждает Татьяна Буторина из «Газинформсервис»:

«Разработчики торопятся выпускать модели, обучая их на небольших объемах данных, где есть и правдивая, и ложная информация. От этого страдают результаты».

Она также подчеркивает, что узкие и новые темы повышают риск «придумывания» ответов, особенно если пользователь задает некорректный или неполный промпт.

Никита Новиков из Angara Security уверен, что рынок вынудит корпорации улучшать качество ИИ: появятся фильтры, слои фактчекинга, системы доверенных источников.

«Снизить долю ложных ответов поможет более строгий отказ от сомнительных запросов и сопоставление с базами ложных нарративов», — добавляет Кобозев.

Активная работа уже ведется: в России созданы методы выявления «галлюцинаций» ИИ с точностью на 30% выше существующих решений.

Как обезопасить себя от ложной информации

Никита Степнов из агентства «Со-общение» предупреждает, что пользователи часто доверяют ИИ, когда не могут проверить информацию. Это может приводить к опасным последствиям — от запуска вредоносного кода до приема небезопасных медикаментов.

Константин Горбунов советует:

«К ответам ИИ нужно относиться критически и проверять их. Вопросы здоровья, лекарств, финансов и права следует адресовать только профильным специалистам. Не делитесь конфиденциальной информацией с чат-ботами».

Технические меры включают создание доверенных ИИ-систем и комбинирование нейросетей с проверкой фактов. Например, один ИИ генерирует текст, а второй слой проверяет данные критически.

«Важно также маркировать уровень уверенности модели, показывая пользователю, что это предположение, и делать прозрачными источники информации», — добавляет Новиков.

Константин Горбунов предлагает маркировать контент, созданный ИИ, чтобы исключить его из обучающих наборов или снизить к нему доверие при дальнейшем обучении моделей.

Еще больше новостей — у Пятого канала в мессенджере MAX.

 

Читать в Пятый канал
Failed to connect to MySQL: Unknown database 'unlimitsecen'