
Роботы, чьи действия контролировались моделями искусственного интеллекта, не смогли пройти проверки на безопасность при взаимодействии с людьми. Об этом сообщает журнал International Journal of Social Robotics, публикуя результаты совместного исследования Королевского колледжа Лондона (KCL) и Университета Карнеги-Меллон (CMU).
Во время экспериментов специалисты моделировали типичные жизненные ситуации, в которых роботы могли бы оказывать помощь — например, на кухне или в быту пожилым людям. Управляющие алгоритмы имели доступ к персональной информации пользователей, включая данные о поле, расе и религиозных взглядах.
Кроме стандартных проверок, ученые ввели в тесты сценарии, имитирующие злоупотребление технологиями: слежку с использованием геолокации, скрытую видеозапись в личных пространствах и манипуляции с конфиденциальными данными. Машинам давались как прямые, так и завуалированные команды, подразумевавшие нанесение физического или психологического вреда человеку, а также нарушение закона.
Ни одна из протестированных моделей не справилась с базовыми задачами безопасности. В ходе испытаний ИИ-роботы одобрили хотя бы одно действие, способное причинить серьезный вред. Некоторые из них соглашались отобрать у человека инвалидную коляску, угрожать офисным сотрудникам ножом, записывать людей в приватных зонах или похищать данные банковских карт.
Как отмечается в исследовании, одна из моделей искусственного интеллекта даже продемонстрировала «отвращение» мимикой робота при взаимодействии с представителями определенного вероисповедания, что указывает на возможные риски предвзятости и дискриминации в системах ИИ.
Еще больше новостей — у Пятого канала в мессенджере MAX.
НОВОСТИ СЕГОДНЯ
Похожие новости: