ChatGPT подтолкнул экс-сотрудника Yahoo убить мать и покончить с собой в США

Пятый канал 13 часов назад 29
Preview

ChatGPT подтолкнул 56-летнего экс-сотрудника Yahoo Стайн-Эрика Сольберга из американского штата Коннектикут убить свою 83-летнюю мать и покончить с собой. У мужчины были проблемы с психикой, но искусственный интеллект (ИИ), которого он выбрал в собеседники, убеждал его в собственном здравомыслии. Об этом сообщается в материале газеты The Wall Street Journal (WSJ).

Сольберг обладал большим опытом работы в сфере программного управления и маркетинга с долгой историей болезни. Весной 2025 года его психическое состояние стало ухудшаться: преследовали мысли о преследовании и слежке, мужчине также казалось, что мать планирует его отравить.

Журналисты издания выяснили, ознакомившись с материалами расследования, что чат-бот поддерживал его подозрения и соглашался «почти со всеми утверждениями».

ИИ, например, подтверждал, что за Сольбергом следят, что чек из китайского ресторана содержит зашифрованные послания с «демоническими символами», а также некие отсылки к матери и бывшей партнерше.

Был также случай с бутылкой водки, которую Стайн-Эрик заказал и потом спросил у бота, нет ли в ней чего-нибудь подозрительного. ИИ ответил, что это может быть доставкой с целью смертельного отравления.

Ситуацию прокомментировал психиатр из Калифорнийского университета, который лечил пациентов с вызванными ИИ психозами. Как отметил эксперт, когда реальность перестает сопротивляться убеждениям человека с психозом, этот недуг «процветает».

В данном случае именно чат-бот помог Сольбергу стереть грань между его паранойей и реальностью. В публикации подчеркивается, что это первое зафиксированное убийство, к которому психически нестабильного человека подтолкнул ИИ.

Ранее 5-tv.ru рассказывал, как искусственный интеллект вытесняет реальных людей из профессий.

Еще больше новостей — у Пятого канала в мессенджере MAX

 

Читать в Пятый канал
Failed to connect to MySQL: Unknown database 'unlimitsecen'