Новый закон об ИИ: эксперты «Палюлин и партнеры» о блокировках, маркировке и ответственности за нейросети
Источник: Lenta.Ru
Россия находится на пороге принятия первого системного закона об искусственном интеллекте. Документ, по замыслу разработчиков, должен сформировать новую архитектуру регулирования: от четких определений до требований ко всем участникам цепочки — разработчикам, операторам и пользователям. Формально цель — создать условия для развития технологий, но фактически речь идет о построении контролируемой и частично суверенной экосистемы ИИ, где не остается места немаркированному контенту и иностранным моделям, не соответствующим российским стандартам. Как отмечает юрист, специалист по IT-сфере Мирза Чирагов, закон вводит не просто требования безопасности, а фактически формирует инфраструктуру «доверенных моделей» и закрепляет приоритет национальных решений.
Одним из ключевых нововведений становится создание реестра ИИ-систем, допущенных к использованию в госструктурах и критической инфраструктуре. Чтобы попасть в этот перечень, модель должна обрабатывать данные внутри России, соответствовать требованиям безопасности и пройти проверку качества. Для бизнеса и госаппарата это автоматически делает российские разработки — такие как GigaChat и YandexAI — приоритетными, тогда как иностранные сервисы, не желающие локализовать данные и адаптироваться к правилам, рискуют оказаться вне легального поля. Прямого запрета в законе нет, но конструкция регулирования создает косвенные барьеры, подчеркивает Мирза Чирагов: требования по локализации персональных данных, ограничение трансграничных моделей и возможность введения перечня «доверенных моделей» делают использование неподконтрольных сервисов сложным, особенно в публичном секторе.
Еще одно принципиальное изменение — обязательная маркировка ИИ-контента. Любые тексты, изображения, видео и аудио, созданные нейросетью, должны содержать метку, распознаваемую как человеком, так и алгоритмами. Удаление такой маркировки с целью ввести кого-либо в заблуждение будет рассматриваться как административное правонарушение. При этом владелец юридического бюро «Палюлин и партнеры» Антон Палюлин обращает внимание, что новые обязанности возлагаются и на крупных пользователей: социальные сети и мессенджеры с суточной аудиторией более 100 тысяч человек, а также блогеры и СМИ должны будут проверять наличие маркировки и удалять немаркированный синтезированный контент. Это создает совершенно новый уровень ответственности за распространение информации, подчеркивает эксперт.
Законопроект также вводит право пользователя знать, когда решение принимает алгоритм, и в ряде случаев отказаться от его использования. Если кредит, наем на работу или тариф одобряет нейросеть, гражданина обязаны уведомить об этом. Аналогичное правило касается голосовых и чат-ботов в техподдержке. Это позволяет оспаривать решения в досудебном порядке на том основании, что они были приняты без участия человека, а в некоторых ситуациях — требовать живого оператора. Кроме того, разработчики и операторы систем ИИ должны будут предотвращать дискриминацию, документировать работу моделей и останавливать алгоритмы при угрозе вреда. Антон Палюлин поясняет: «Законопроект вводит принципиальные запреты дискриминации. Разработчик модели ИИ обязан исключить ее функциональные особенности, способные привести к дискриминации, а оператор системы — не допускать эксплуатации уязвимостей человека (возрастных, психологических, когнитивных)». Это прямой ответ на уже зафиксированные риски — например, когда нейросети в HR-отборах воспроизводят неосознанные предубеждения.
Особый блок посвящен контролю контента и соответствию традиционным ценностям. Сервисы обяжут блокировать противоправный контент, не допускать манипуляции пользователями и учитывать традиционные ценности. Как отмечают опрошенные эксперты, это одно из ключевых отличий российской модели регулирования от европейской. Если на Западе дискриминацией могут посчитать отказ сгенерировать изображение семьи определенного состава, то в России, напротив, некоторые типы контента будут блокироваться как нарушающие законодательство. Такая разница подходов создает риски, что ряд иностранных моделей просто не пройдут «фильтр цензуры» и окажутся недоступны на территории страны.
Не обойдется без изменений и авторское право. По словам Антона Палюлина, закон фиксирует принцип, уже существующий в Гражданском кодексе: объектом авторских прав может стать результат, созданный с помощью ИИ, но только при условии, что в нем присутствует творческий вклад человека. Если пользователь лишь нажал кнопку, защита не возникает. Если же он продумывает промпты, отбирает, комбинирует и дорабатывает результат — такие работы могут быть признаны произведением. При этом закрепляется право использовать чужие материалы для обучения нейросетей без согласия правообладателя, если доступ к ним получен законно. Для креативных индустрий это двойственная ситуация: работы художников, писателей и музыкантов могут свободно использоваться для обучения моделей, зато собственные ИИ-результаты при наличии творческого вклада получают правовую охрану.
Для обычных пользователей новые правила сулят как удобства, так и неудобства. С одной стороны, появляется право оспаривать решения алгоритмов, становится понятнее, где работает ИИ, а где человек, и снижается риск дипфейков благодаря обязательной маркировке. С другой — часть привычных иностранных нейросетей может исчезнуть или работать с серьезными ограничениями, усилится контроль за контентом, а государство получит механизмы мониторинга работы систем. Как отмечает Мирза Чирагов, «конструкция регулирования создает косвенный барьер, который на практике может привести к ограничению иностранных сервисов». Ответственность теперь четко распределена: за использование ИИ в незаконных целях отвечает пользователь, за недостаточный контроль — разработчик, а за нарушение правил маркировки предусмотрены отдельные административные составы, которые еще предстоит прописать в КоАП.
Новый закон об ИИ — попытка ответить на вызовы «цифровой вольницы», которая сегодня создает слишком много возможностей для злоупотреблений. Однако, как предупреждают эксперты «Палюлин и партнеры», главный риск заключается в том, что, стремясь решить сразу несколько задач, регулирование может перегрузить отрасль избыточными барьерами. Отечественные разработчики рискуют столкнуться с ограничениями, которые замедлят их развитие, в то время как пользоваться иностранными аналогами станет одновременно сложнее и опаснее. Баланс между безопасностью, защитой прав граждан и технологической конкурентоспособностью — именно та главная точка, от которой будет зависеть успех новой системы регулирования.
