
Эксперт по кибербезопасности Владислав Кокунцыков сообщил, как распознать видео, созданное нейросетью. Он указывает на неестественную мимику и слишком идеальную картинку. Эксперт также подчеркнул важность готовности к новым угрозам, включая дипфейки.
Эксперт в области кибербезопасности Владислав Кокунцыков отметил, что определить видео, созданное с помощью нейросетей, возможно благодаря ряду технических признаков. Основным показателем является излишне идеальная картинка, лишённая человеческих недостатков.
«Это выражается в неестественной мимике, "плавающих" деталях, странной игре света, несоответствии эмоций голосу и, порой, в слишком идеальной картинке без привычных человеческих огрехов», — сообщил Кокунцыков в интервью с РИАМО.
Эксперт объяснил, что такие технические признаки являются временным явлением, так как качество видео, создаваемого искусственным интеллектом, стремительно улучшается.
Важный вопрос, стоящий перед обществом и бизнесом сегодня, заключается не в оценке, насколько это хорошо или плохо, а в готовности противостоять новым угрозам, таким как дипфейки, манипуляции и атаки на репутацию, подчеркнул специалист.
Ранее руководитель Центра карьеры КМЭПТ Валентина Киося отметила тревожную тенденцию среди начинающих специалистов: использование ИИ для фальсификации данных о своём опыте в резюме.
Ранее мы писали о том, что Эвелина Бледанс не прибегала к пластическим операциям, согласно заявлению известного пластического хирурга Дениса Агапова. Он отметил, что её молодость и привлекательный внешний вид являются результатом удачного макияжа, использования фильтров и наследственной генетики.
НОВОСТИ СЕГОДНЯ
Похожие новости: