Ключевые риски, связанные со взаимодействием с искусственным интеллектом, охватывают не только технические аспекты, но и социальные, психологические и этические вопросы, рассказал в беседе с RT Юрий Силаев, заведующий лабораторией доверенного искусственного интеллекта РТУ МИРЭА.
«Современные ИИ-системы, особенно генеративные модели, становятся всё более интегрированными в нашу повседневную жизнь, что требует осознанного подхода к их использованию. Одной из наиболее серьёзных опасностей является риск утечки личной информации. ИИ-системы, особенно большие языковые модели, обучаются на огромных массивах данных, которые могут включать конфиденциальную информацию: персональные данные, финансовые транзакции, медицинские записи и даже интеллектуальную собственность», — отметил эксперт.
Важно понимать, что риски усугубляются практикой «теневого ИИ» — использования сотрудниками инструментов ИИ без одобрения IT-отделов, рассказал аналитик.
«Это приводит к тому, что конфиденциальные корпоративные данные (например, ценовые стратегии или условия контрактов) попадают в незащищённые внешние системы, что создаёт угрозы для бизнеса, включая репутационный ущерб и нарушения нормативных требований. Для предотвращения утечек необходимы строгие политика управления данными, шифрование и анонимизация, а также обучение сотрудников», — объяснил собеседник RT.
По его словам, другая значительная опасность — склонность ИИ-систем к генерации некорректных фактов, известная как «галлюцинации».
«Это связано с тем, что ИИ-модели основаны на статистических закономерностях, а не на реальном понимании контекста. Например, генеративный ИИ может создавать убедительные, но ложные истории (нарративы), которые способны манипулировать общественным мнением, дестабилизировать финансовые системы и даже влиять на политические процессы. Некорректные факты могут возникать непреднамеренно, из-за ошибок в данных обучения или предвзятости алгоритмов», — заявил киберэксперт.
По мнению Силаева, особую тревогу вызывает применение искусственного интеллекта в сферах, где ошибка может стоить жизни или привести к тяжёлым последствиям — например, в медицине или правоохранительной деятельности.
«Для снижения этих рисков необходимо внедрять более строгие стандарты проверки данных, обеспечивать прозрачность алгоритмов и развивать критическое мышление у пользователей», — пояснил он.
Психологическая зависимость от ИИ — это относительно новое и пока малоизученное явление, которое представляет особую опасность для подростков и одиноких людей, добавил специалист.
«Зависимость формируется из-за того, что ИИ-системы (например, чат-боты или голосовые помощники) могут выступать в роли «значимого другого» — они всегда доступны, не осуждают и предоставляют эмоциональную поддержку. Это приводит к тому, что пользователи начинают предпочитать общение с ИИ человеческому, что может усугублять одиночество и снижать социальные навыки. В долгосрочной перспективе это угрожает эмоциональному здоровью: возникают «уплощение» эмоционального опыта, проблемы с эмоциональной регуляцией и рост тревожности», — пояснил Силаев.
Более того, использование ИИ для «самолечения» психических проблем (например, депрессии или тревоги) может быть опасным, так как ИИ-терапевты часто не способны адекватно реагировать на критические ситуации, отметил он.
Ранее генеральный директор «Диджитал Маркетс» Илья Назаров рассказал в беседе с RT, что сегодня искусственный интеллект становится мощным инструментом не только для бизнеса и науки, но и для мошенников.