
Граждане России получают право требовать объяснений от искусственного интеллекта и оспаривать его вердикты. Новый законопроект Минцифры призван положить конец «алгоритмическому произволу» в банках, HR и госуслугах, делая ИИ подотчетным человеку.
Апрель 2026 года ознаменовался для России важным правовым сдвигом: эпоха непрозрачных «черных ящиков» в ключевых системах, от банковского скоринга до HR-платформ и государственных сервисов, подходит к концу. На фоне повсеместного внедрения нейросетей законодатели активно формируют механизмы защиты от так называемого «алгоритмического произвола». Центральным документом этой инициативы стал законопроект Минцифры «Об основах государственного регулирования сфер применения ИИ-технологий», представленный в марте 2026 года.
«Главная правовая новелла — это введение «права на объяснение. Теперь, если банк отказал вам в кредите или государственная система лишила вас льготы на основании работы алгоритма, вам не могут просто ответить «система так решила». Согласно готовящейся статье 9 нового закона, гражданину должна быть обеспечена возможность оспорить действия ИИ. Если решение затрагивает ваши конституционные права, окончательное слово по закону должно оставаться за человеком, а не за кодом. Это попытка остановить тренд, когда ответственность за ошибки размывается между разработчиком и оператором нейросети», — комментирует генеральный директор компании «АТОМЪ» Глеб Гаус.
В 2026 году также усиливается контроль над «алгоритмической дискриминацией». Разработчики нейросетей теперь юридически обязаны исключать из моделей функции, которые могут привести к предвзятости по расовому, половому или возрастному признаку. Как отмечает Глеб Гаус, «согласно Кодексу этики в сфере ИИ, который в 2025–2026 годах стал для финансового сектора практически обязательным стандартом, использование ИИ для манипулирования поведением людей или навязывания кабальных условий сделок признается недопустимым». Если алгоритм систематически «бракует» кандидатов определенного возраста, компании грозят серьезные штрафы по линии Роскомнадзора.
«С точки зрения безопасности, важно помнить о «презумпции виновности» разработчика. Если нейросеть допустила ошибку (например, в медицине или системе распознавания лиц), отвечать будет владелец сервиса, если он не докажет, что предпринял все меры для предотвращения рисков. «Галлюцинации» ИИ перестали быть просто техническим курьезом и стали предметом судебных исков. Поэтому переход к обязательному страхованию ответственности ИИ-систем в общественно значимых сферах — это лишь вопрос времени», — добавляет эксперт.
Как защитить свои права:
1. Требуйте человека: Если вы получили автоматический отказ в критически важном сервисе, ссылайтесь на статью 16 закона «О персональных данных» и проект нового закона об ИИ. Вы имеете право требовать, чтобы ваше дело пересмотрел живой сотрудник (оператор).
2. Проверяйте «чистоту» данных: Алгоритмы часто ошибаются из-за мусора в базах данных (ошибки в ФНС, двойники в ФССП). Регулярно проверяйте свой профиль на Госуслугах – именно оттуда ИИ берет информацию для вынесения вердиктов.
3. Опасайтесь «умных» интервью: Многие HR-платформы в 2026 году анализируют микромимику и тембр голоса. Помните, что по закону вы должны быть предупреждены, если ваше интервью оценивает бот. Вы имеете право отказаться от такого формата в пользу классического собеседования.
4. Фиксируйте отказы: Если вы столкнулись с явно предвзятым решением алгоритма, требуйте письменного обоснования. Даже если оно будет кратким, это станет доказательной базой для обращения в прокуратуру или Роскомнадзор по факту нарушения ваших прав на равный доступ к услугам.
НОВОСТИ СЕГОДНЯ
Похожие новости: