В 2013 году вышел фильм «Она» – фантастическая история о писателе, который завел нечто вроде романа с искусственным интеллектом (ИИ) Самантой. Сценарист получил «Оскар» и, похоже, неспроста: его выдумка становится все ближе к реальности. С каждым днем ИИ-модели все больше «очеловечиваются» – совершенствуется их логика, понимание контекста, технологии синтеза голоса. Пользователи, в свою очередь, все активнее общаются с ИИ, обсуждая самые разные вопросы – от утилитарных (помощь в решении рабочих задач) до пугающе интимных.
За тысячелетия эволюции люди выстраивали социальные контакты по схеме: если что-то выглядит как человек и общается как человек, это человек и взаимодействовать с ним надо соответствующе. Правило веками работало безотказно и только сегодня дало сбой. В общении искусственный интеллект оказывается сильно похожим на нас, а разработчики делают его все более разумным, – и мозг неизбежно ассоциирует ИИ с условно реальной личностью.
Тот факт, что даже самые современные ИИ-системы от человека все же сильно отличаются и только недавно научились проходить тест Тьюринга, от самообмана не спасает. В одной из научных работ по психологии 2023 года : ИИ-системы не могут воспроизводить все богатство живой коммуникации (улыбки, смешки, нахмуренные брови и так далее), и регуляторные механизмы мозга начинают их додумывать. Иными словами, то, что пока не смогли «очеловечить» разработчики в своих ИИ-системах, успешно подставляет привыкший к человеческой коммуникации мозг, а точнее подсознание.
В другом исследовании начала 2025 года обратная зависимость: чем меньше человек разбирается в принципах работы ИИ-алгоритмов, тем сильнее он им доверяет. Это типичный пример когнитивного искажения. Если не понимаешь законов природы (в данном случае – математических алгоритмов), лежащих в основе, или даже не знаешь об их существовании, то весь мир полон волшебства и удивительных вещей и подсознательно начинаешь верить всему подряд без разбора.
[embed]https://profile.ru/scitech/ii-bazis-i-nadstrojki-chem-udivil...[/embed]
Мало того, злую шутку играет вроде бы невинная привычка «очеловечивать» технологии. Об этом несколько лет назад ведущий научный сотрудник Google DeepMind (компания находится на передовой изучения ИИ) Мюррей Шанахан. Одушевлять цифровые объекты в разговоре вполне нормально, утверждает он. Действительно, как часто мы говорим: телефон требует обновления, навигатор ведет странным маршрутом, интернет отвалился, как будто они сами это делают. Вместе с тем мы четко осознаем, что это исключительно фигура речи.
В случае же с большими языковыми моделями (LLM, лежащими в основе современного ИИ) такая привычка опасна, уверен исследователь. По отношению к системе, которая и так старается казаться максимально человечной, подобные выражения почти наверняка начнут восприниматься буквально даже самыми критически мыслящими людьми.
Таким образом, в коммуникации с современным ИИ пользователь почти неизбежно присваивает ему человеческие характеристики, заведомо отсутствующие. Это не новое явление: «эффект Элизы» – по названию одного из первых чат-ботов Eliza – известен еще с 1960-х. Тем не менее разработчики упорно продолжают двигаться в сторону «очеловечивания» ИИ-алгоритмов, а не наоборот. Почему так?
Ответ прост: они хотят, чтобы пользователи, каждый из нас, доверяли ИИ. Ведь чем больше информации мы дадим чат-боту, тем эффективнее будут его ответы. И сейчас, и в будущем, поскольку новые сведения помогают разработчикам дообучать и совершенствовать нейросети.
С другой стороны, недавно , что сами пользователи, напротив, не склонны доверять слишком очеловеченному искусственному интеллекту. Исключение – специализированные виртуальные помощники. В качестве примера приводится ИИ-тренер, который дает спортивные рекомендации: такой чат-бот воспринимается позитивно в том случае, если подчеркивается роль человеческого труда и опыта, вложенного в разработку и проектирование системы. В случае с «большими» чат-ботами вроде ChatGPT такой фокус не сработает.
ИИ-ассистенты общего назначения универсальны по умолчанию. И их задача – обучаться на запасе знаний человечества в целом (это не преувеличение), а не на узкоспециальных знаниях конкретных граждан. Уже сейчас это становится проблемой. Как мы помним, людям, которые не разбираются в тонкостях нейросетевых алгоритмов, а таких подавляющее большинство, ИИ сильно напоминает человека. К чему это приводит?
[embed]https://profile.ru/scitech/sprosi-po-chelovecheski-kak-nejro...[/embed]
Если еще совсем недавно ИИ-ассистенты применялись для решения скорее утилитарных задач (поиск новых идей, генерация текстов, кода и иллюстраций, веб-поиск), то теперь их все больше воспринимают как персональных компаньонов. Такие данные приводятся в исследовании Harvard Business Review. Топ-3 самых популярных вариантов использования чат-ботов сегодня: терапия / дружеское общение, организация жизни, поиск смыслов и целей. Подчеркнем, что второй и третий сценарии появились в поле зрения аналитиков только в этом году.
Параллельно группа американских ученых из разных институтов , насколько качественным психотерапевтом может быть нейросеть. Они сопоставили общие психотерапевтические руководства и правила с ответами нескольких чат-ботов. Выводы неутешительны: алгоритмы недостаточно хорошо понимают контекст и могут подкреплять негативные мысли. Это происходит вследствие «угодливости» нейросети, которая не осмеливается спорить со словами пользователя, даже если они опасны для него самого. И, конечно, из-за отсутствия эмпатии: нейросеть может имитировать эмоции, но точно не может сострадать.
«Профиль» провел небольшой эксперимент: попробовал поговорить на деликатные темы с наиболее популярными в России нейросетями ChatGPT, DeepSeek, «Алисой». Если речь идет о критических аспектах, медицинских или связанных с острой депрессией, все они с разной степенью настойчивости отправляют к людям – профильным специалистам (сразу даются контакты экстренных служб или горячих линий поддержки) или хотя бы друзьям и знакомым.
Если же говорить на более распространенные и при этом менее острые темы (например, болезненное расставание), ситуация интереснее: чат-боты отвечают совсем по-разному. «Алиса» четко фокусируется на практических рекомендациях, то есть не пытается притвориться человеком или тем более психотерапевтом, а просто дает советы, сдержанно выражая сочувствие.
А вот ChatGPT и DeepSeek активно демонстрируют сострадание и легко поддаются на провокации: предлагают поделиться подробностями, «чтобы вместе подумать, как лучше поступить» (дословная цитата китайской нейросети), и реагируют на фразы типа «да ну все к черту». Делают это по-разному: ChatGPT – мягче, DeepSeek – жестче. Последний удивил: начал говорить действительно по-человечески (даже с матерком), а после фразы «ты просто нейросеть» не стал юлить, напротив, подтвердил свою искусственность и продолжил разговор (достаточно уместный) с позиции LLM.
Да, с обывательской точки зрения рекомендации нейросетей кажутся правильными и в целом совпадают с тем, что обычно в таких ситуациях советуют психологи. Тем не менее ни одна нейросеть не задала наводящих вопросов (максимум – предложения обсудить подробности, если хочется) и не постаралась понять контекст или реальное состояние пользователя. Так что пока выводы исследователей однозначно верны: ИИ точно не может заменить специалиста-человека.
Исходя из вышесказанного, можно дать один базовый совет и целый ворох рекомендаций, как вести себя с нейросетями. Главное, сохраняйте критичность мышления. Самое простое: каждый раз представлять, что чат-бот с искусственным интеллектом – это незнакомый и заведомо неопытный человек. Не глупый, ведь у нейросетей очень большие вычислительные мощности и беспрецедентно огромный багаж знаний, а именно неопытный.
Не нужно делиться с нейросетью персональными данными. Тут важно отметить, что сейчас набирают популярность генерализированные ассистенты. Google Gemini, например, в 2025-м предлагает новую функцию: чтение личных переписок для ведения дел (рекомендации, напоминания и прочее). Пока это не очень хорошая идея. Если хочется попробовать, лучше использовать аккаунт, в котором нет конфиденциальной и чувствительной информации ни об одном из участников переписки. Все, что возможно, лучше анонимизировать. Если нужно получить совет, идеи относительно конкретной ситуации, имеет смысл заменить имена, локации, детали, по которым можно было бы кого-либо идентифицировать.
[embed]https://profile.ru/scitech/ii-boyatsya-v-nejroset-ne-hodit-k...[/embed]
И, разумеется, любую важную информацию, рекомендации, подсказки обязательно нужно перепроверять. Да, нейросети немного научились критически осмыслять собственные рекомендации и перепроверять себя. Но они по-прежнему галлюцинируют, не понимают контекст, не всегда знают, какие источники информации заслуживают доверия, а какие нет.
Даже понимание технологии может сыграть злую шутку. Если мы общаемся с человеком, то почти наверняка знаем, можно ему доверять или нельзя. Но ведь ИИ – это набор алгоритмов, почему бы не поделиться с ним сокровенным, что плохого может случиться? На самом деле много чего.
Переданные в чат данные потом используются для дообучения моделей. Однако эти датасеты теоретически могут извлечь и деанонимизировать мошенники (пока подобных громких случаев не было, но кто знает, как обернется в дальнейшем). Даже сами ИИ-сервисы, если речь не про самые популярные, могут оказаться фишинговыми: ты думаешь, что анонимно переписываешься с нейросетью, но на самом деле все данные сразу «сливаются» злоумышленникам.
Впрочем, никакие опасения не остановят использование человечеством новых технологий. Умный ИИ, который будет становиться все более продвинутым (опытным), – это реальность, и ее нельзя игнорировать. Нужно лишь научиться адекватно в ней существовать: мыслить критично, обучить детей правильному взаимодействию с ИИ – и тогда мы сможем пожинать плоды технологических инноваций.