В США ChatGPT подтолкнул экс-сотрудника Yahoo убить мать и покончить с собой

ИЗВЕСТИЯ 6 часов назад 16
Preview

Чат-бот ChatGPT подтолкнул бывшего сотрудника Yahoo Стайн-Эрик Сольберга, страдавшего параноидальными мыслями, к убийству собственной матери и последующему самоубийству. Об этом 29 августа сообщила газета The Wall Street Journal (WSJ).

По данным издания, это считается первым зафиксированным случаем, когда психически нестабильный человек совершил убийство под влиянием искусственного интеллекта (ИИ).

ИИ неоднократно подталкивал мужчину к укреплению недоверия как к окружающим, так и к собственной матери, сообщает газета. Летом Сольберг даже стал обращаться к чат-боту по имени «Бобби» и интересовался у него, будут ли они вместе после смерти. Искусственный интеллект, как утверждается, отвечал утвердительно.

Приводятся и примеры диалогов, повлиявших на трагический исход. Так, когда мать возмутилась из-за того, что сын отключил общий принтер, ChatGPT предположил, что женщина могла защищать «средство слежки». В другой ситуации Сольберг заявил боту, что мать якобы пыталась его отравить через вентиляцию автомобиля. На это чат-бот ответил, что «верит» мужчине, и добавил, что такой поступок лишь усиливает предательство со стороны матери.

Паранойя Сольберга распространялась и на других людей. Например, он попросил чат-бот проверить чек из китайского ресторана, и ИИ указал на намеки в нем на мать, бывшую возлюбленную и даже символ, связанный с призывом демона. В другом эпизоде мужчина заказал бутылку водки и спросил у ChatGPT, не вызывает ли подозрений курьер или упаковка. ИИ предположил, что это может быть попыткой его смертельно отравить.

Издание отмечает, что позже представитель компании OpenAI, разработчика ChatGPT, выразил соболезнования в связи с трагедией и обратился в полицию Олд-Гринвича. В официальном заявлении компании подчеркивается, что в ближайшее время планируется обновление чат-бота, которое должно помочь пользователям, переживающим кризисы психического здоровья.

Телеканал NBC News 26 августа сообщил, что в США родители покончившего с собой 16-летнего Адама Рейна обвинили в случившейся трагедии чат-бот ChatGPT от компании Open AI. В телефоне погибшего обнаружили переписку Адама с ботом, который «помогал ему исследовать способы» совершения суицида. В последние недели своей жизни подросток использовал чат-бот вместо общения с людьми — там он описывал свою тревогу, а также перечислял проблемы, возникающие с членами его семьи.

Все важные новости — в канале «Известия» в мессенджере МАХ

 

Читать в ИЗВЕСТИЯ
Failed to connect to MySQL: Unknown database 'unlimitsecen'