
Исследователи отмечают, что языковые модели склонны соглашаться с пользователями, даже когда те неправы. В беседе с MIR24.TV ситуацию прокомментировала стратег по внедрению искусственного интеллекта и бизнес-автоматизации Анна Райская. По ее словам, модели обучаются на обратной связи от людей, а людям нравится, когда с ними соглашаются. «Это создает порочный круг: чем больше модель поддакивает, тем выше оценка пользователя, тем больше разработчик закрепляет это поведение», — объяснила специалист. Эксперт считает, что проблема начинается там, где человек перестает понимать, что перед ним алгоритм, а не друг. После общения с «поддакивающим» чат-ботом люди становятся более убеждены в собственной правоте и менее склонны извиняться или искать компромисс.
НОВОСТИ СЕГОДНЯ
Похожие новости: