
Мошенники уже активно применяют технологию подделки голоса для кражи денег россиян, предупредил в беседе с RT Сергей Кузьменко, руководитель Центра цифровой экспертизы Роскачества.
«Используя нейросети на базе искусственного интеллекта, злоумышленники создают убедительные голосовые копии знакомых или родственников потенциальных жертв. Для этого им требуется лишь короткий образец голоса, который легко добыть из аудио- и видеозаписей в соцсетях, мессенджерах или просто записав разговор по телефону. Услышав в трубке знакомый тембр и манеру речи, люди теряют бдительность и без лишних сомнений переводят деньги на указанные мошенниками реквизиты, осознавая обман лишь после», — добавил эксперт.
По его словам, эволюцией этой схемы становятся видеозвонки с использованием технологии дипфейк, которые выводят обман на новый уровень.
«Если при голосовом звонке у вас ещё есть шанс заподозрить неладное: положить трубку и перезвонить на настоящий номер, написать в мессенджер для подтверждения, то с дипфейком всё иначе. Перед вами не просто голос, а живое изображение близкого человека, его мимика и движения. Этот мощный эффект присутствия сметает последние барьеры осторожности, заставляя мозг поверить в реальность происходящего», — заключил специалист.
Ранее IT-эксперт Илья Назаров рассказал, что фильтры мешают мошенникам красть внешность для дипфейков.
НОВОСТИ СЕГОДНЯ
Похожие новости: