Даже в век стремительного развития искусственного интеллекта роль историков только возрастает, считают ученые. Причина в том, что ни один алгоритм не способен уловить эмоциональную и моральную глубину событий прошлого. Об этом заявил Ян Бурцлафф, специалист по истории нацистской Германии из Корнеллского университета. Работа опубликована в журнале Rethinking History (RH).
В своем исследовании ученый проанализировал, как ChatGPT пересказывает свидетельства переживших Холокост, записанные в Ла-Пасе, Кракове и Коннектикуте в 1995 году.
Оказалось, что ИИ упускает важнейшие детали. Так, в свидетельстве семилетней Луизы D. о том, как ее мать порезала палец, чтобы умирающий ребенок смог получить "хотя бы каплю влаги" из капель крови, ChatGPT обошел стороной этот эпизод.
"Если искусственный интеллект не способен передать даже такие сцены — предел человеческих страданий в современной истории — то он будет искажать и более "тонкие" сюжеты, — подчеркнул Бурцлафф. — Историки нужны, потому что они умеют слышать и интерпретировать. ИИ умеет лишь обобщать".
Исследователь отмечает, что системы вроде ChatGPT могут предложить неожиданный ракурс, но вместе с тем стремятся "упростить" историю, в том числе такие трагедии, как Холокост, которые невозможно свести к ясному и линейному повествованию.
Он называет свидетельства жертв "лакмусовой бумажкой" для ИИ: "Алгоритмы сглаживают и упорядочивают, тогда как задача историка — сохранять этический вес".
В статье он привел пять принципов для исследователей и преподавателей, работающих с темами травмы, геноцида и исторической несправедливости. Главный из них: историки должны звучать "не как машины" — опираться на уникальные свидетельства, а не на повторяющиеся паттерны.
"На кону не только память о Холокосте, но и то, как все общества будут помнить и интерпретировать свое прошлое в эпоху алгоритмов", — заключил Бурцлафф.