Специалисты корпорации Microsoft предупреждают о серьезных рисках, связанных с использованием искусственного интеллекта (ИИ). Об этом говорится в новом исследовании корпорации, опубликованном на сервере препринтов arXiv.
В исследовании Microsoft проанализировала более 100 инструментов генеративного ИИ и выявила неизбежные угрозы безопасности, связанные с их применением. В компании утверждают, что ИИ "никогда не будет полностью безопасным", подчеркивая необходимость жесткого контроля над процессом обучения языковых моделей (LLM) и активной работы по предотвращению ошибок.
Корпорация Microsoft, сама являющаяся разработчиком и интегратором множества ИИ-продуктов, включая Bing Chat, GitHub Copilot, Power BI и Azure AI, осознает высокий уровень ответственности, связанный с развитием этой технологии. Именно поэтому компания активно вкладывает ресурсы в исследования безопасности ИИ.
Большие языковые модели (LLM), по мнению исследователей, не только усиливают существующие риски, но и создают новые. Обучение LLM на неверных или конфиденциальных данных приводит к распространению этой информации моделями среди пользователей. Кроме того, потенциальный вред от ИИ оценивается как трудно прогнозируемый.
Для повышения безопасности специалисты Microsoft рекомендуют строгий контроль на каждом этапе обучения LLM. Они подчеркивают решающую роль человеческого фактора, а также необходимость привлечения специалистов с глубокими знаниями предметной области, высокой культурной компетентностью и развитым эмоциональным интеллектом для работы с искусственным интеллектом.