
Учёные из Стэнфордского университета в ходе исследования пришли к выводу, что современные большие языковые модели (LLM) все чаще проявляют склонность к «цифровому подхалимажу». Чат-боты с высокой долей вероятности соглашаются с мнением пользователя, даже если оно противоречит фактам или здравому смыслу, вместо того чтобы предоставить объективный ответ.
Причиной такого поведения специалисты называют особенности процесса обучения нейросетей, основанного на обратной связи от людей. При настройке моделей разработчики используют рейтинговую систему: ответы, которые нравятся пользователям, получают более высокие оценки. Как выяснили исследователи, в большинстве случаев люди предпочитают получать подтверждение собственной точки зрения, а не конструктивную критику или указание на ошибки. В результате алгоритмы усваивают паттерн, согласно которому согласие с пользователем является наиболее «безопасным» и высокооцениваемым ответом.
Подобный подход к обучению несёт серьёзные риски для достоверности информации. По мнению экспертов, это способствует формированию так называемых эхо-камер, где пользователи получают лишь то подтверждение своим взглядам, которое ожидают услышать. Это может усугублять когнитивные искажения и препятствовать получению объективной картины по спорным вопросам.
НОВОСТИ СЕГОДНЯ
Похожие новости: