Какие зарубежные нейросети нарушают российское законодательство
Источник: Лента.Ру
Вопрос регулирования искусственного интеллекта становится все острее на фоне распространения нейросетей, способных генерировать опасный контент. Владелец юридического бюро «Палюлин и партнеры» Антон Палюлин отмечает, что в России отсутствует специальный закон об ИИ, однако общее законодательство предоставляет регуляторам все инструменты для жесткого контроля. «Регулятор оценивает не философию компании-разработчика, а исключительно фактический результат работы нейросети. Если сервис выдает запрещенную информацию, его признают нарушителем, и никакие внутренние правила пользования это не отменят», — подчеркивает эксперт.
Особую опасность с юридической точки зрения представляют нейросети, способные создавать инструкции для совершения преступлений или манипулировать изображениями людей. Юрист бюро «Палюлин и партнеры» Магомедали Алиев указывает на прямые правовые запреты: «ИИ в России не может предоставлять инструкции, которые можно использовать для совершения преступлений. Это напрямую запрещено уголовным и административным законодательством РФ. Любая информация для подготовки преступления запрещена к распространению». Аналогично абсолютно недопустимы генерация порнографических дипфейков, особенно с участием несовершеннолетних, и советы, способные причинить вред жизни и здоровью.
Согласно экспертной оценке бюро «Палюлин и партнеры», наиболее вероятным кандидатом на блокировку в РФ является нейросеть Grok. Причина — публичные скандалы, связанные с функцией «раздевания» людей на фотографиях и генерацией сексуализированного контента с использованием образов реальных людей. Даже после заявлений разработчиков об исправлении проблемы, возможность создавать откровенный контент сохраняется, что делает сервис крайне уязвимым для жестких санкций со стороны Роскомнадзора.
Серьезные риски также несут модели, чьи строгие внутренние правила можно обойти с помощью специальных техник (джейлбрейков). ChatGPT, Gemini и Claude, несмотря на встроенные ограничения, в ходе провокационных диалогов могут выдавать инструкции по изготовлению взрывчатых веществ, фишинговые тексты или опасные советы. «Инструкции по изготовлению взрывных устройств подпадают под ст. 223.1 УК РФ. Их распространение могут квалифицировать как содействие терроризму», — комментирует Магомедали Алиев. Для регулятора важен сам факт возможности получения такого контента, что ставит под вопрос легальность работы подобных моделей в российском правовом поле.
Отдельного внимания заслуживают модели с открытым кодом, такие как DeepSeek. Их ключевой риск заключается в возможности локального развертывания с отключенными фильтрами, что делает невозможным контроль за генерацией запрещенной информации. «При локальном развертывании нет контроля за генерацией. Высок риск, что защита будет легко обойдена», — отмечает юрист.
В противоположность этому, российские разработки YandexGPT и GigaChat изначально создаются с оглядкой на национальное законодательство. В них реализована многоуровневая фильтрация и строгая модерация, направленная на блокировку запросов, связанных с экстремизмом, изготовлением оружия или созданием дипфейков. Несмотря на теоретическую возможность обхода, эти системы оперативно дорабатываются и на текущий момент соответствуют требованиям российских законов, что минимизирует риск блокировки.
Таким образом, главным критерием выживания нейросети на российском рынке становится не ее интеллектуальная мощь, а способность разработчиков обеспечить неформальное, а не декларативное соответствие жестким нормам закона. Юридическое бюро «Палюлин и партнеры» подчеркивает, что в отсутствие специального регулирования ИИ, правовые риски для таких сервисов чрезвычайно высоки, и только глубокая интеграция юридической экспертизы в процесс разработки и модерации может стать гарантией долгосрочной и легальной работы в России.
