ФБР выпустило предупреждение о продолжающейся мошеннической схеме, в которой злоумышленники применяют технологии искусственного интеллекта для создания аудиозаписей, имитирующих голоса высокопоставленных чиновников США.
С апреля 2025 года мошенники, используя технологии дипфейков — искусственно созданные голосовые записи, почти неразличимые от настоящих, — нацеливаются на действующих и бывших государственных служащих, а также их контакты.
Злоумышленники рассылают текстовые сообщения и голосовые записи, чтобы завоевать доверие, а затем предлагают перейти на другие платформы по вредоносным ссылкам, которые могут заразить устройства или украсть личные данные. ФБР рекомендует не доверять подобным сообщениям.
Такого рода атаки становятся всё более обычными. В прошлом году хакеры использовали дипфейк голоса генерального директора LastPass, чтобы обмануть сотрудника, а в Нью-Гемпшире голосовой дипфейк Джо Байдена пытался повлиять на выборы.
Как сообщалось ранее — Штурмы ВС РФ пленили группу солдат ВСУ при освобождении сумского посёлка Беловоды