ChatGPT подтолкнул 56-летнего экс-сотрудника Yahoo Стайн-Эрика Сольберга из американского штата Коннектикут убить свою 83-летнюю мать и покончить с собой. У мужчины были проблемы с психикой, но искусственный интеллект (ИИ), которого он выбрал в собеседники, убеждал его в собственном здравомыслии. Об этом сообщается в материале газеты The Wall Street Journal (WSJ).
Сольберг обладал большим опытом работы в сфере программного управления и маркетинга с долгой историей болезни. Весной 2025 года его психическое состояние стало ухудшаться: преследовали мысли о преследовании и слежке, мужчине также казалось, что мать планирует его отравить.
Журналисты издания выяснили, ознакомившись с материалами расследования, что чат-бот поддерживал его подозрения и соглашался «почти со всеми утверждениями».
ИИ, например, подтверждал, что за Сольбергом следят, что чек из китайского ресторана содержит зашифрованные послания с «демоническими символами», а также некие отсылки к матери и бывшей партнерше.
Был также случай с бутылкой водки, которую Стайн-Эрик заказал и потом спросил у бота, нет ли в ней чего-нибудь подозрительного. ИИ ответил, что это может быть доставкой с целью смертельного отравления.
Ситуацию прокомментировал психиатр из Калифорнийского университета, который лечил пациентов с вызванными ИИ психозами. Как отметил эксперт, когда реальность перестает сопротивляться убеждениям человека с психозом, этот недуг «процветает».
В данном случае именно чат-бот помог Сольбергу стереть грань между его паранойей и реальностью. В публикации подчеркивается, что это первое зафиксированное убийство, к которому психически нестабильного человека подтолкнул ИИ.
Ранее 5-tv.ru рассказывал, как искусственный интеллект вытесняет реальных людей из профессий.
Еще больше новостей — у Пятого канала в мессенджере MAX