Диалоги с ИИ могут стать доказательством против вас в суде

22 марта 2026 10:55

Источник: Lenta.Ru

Около половины россиян уже активно используют искусственный интеллект и нейросети — от рабочих задач до психологической поддержки. Однако за внешним удобством скрывается малообсуждаемый юридический риск: ваши переписки с ботом могут оказаться не приватными, а в некоторых случаях — использоваться против вас в суде. Диалоги с ИИ способны сохранять, читать, анализировать и передавать третьим лицам, включая правоохранительные органы.

До недавнего времени чат с нейросетью воспринимался как нечто среднее между записной книжкой и личной перепиской. Люди редко задумываются, как они выглядят в диалоге с ИИ, даже когда речь заходит об интимных темах. Нейросеть кажется бездушным инструментом, который не осудит, но ситуация стремительно меняется. Нейросети становятся всё более серьёзными цифровыми субъектами с точки зрения обработки данных и взаимодействия с государственными системами. В 2025 году глава OpenAI Сэм Альтман прямо заявил: переписку с ChatGPT могут запросить у разработчиков и использовать как доказательство в суде — не только в США, но и в других странах в зависимости от их законодательства.

Механизм работы большинства популярных нейросетей устроен так, что вводимые запросы не исчезают бесследно. Даже после удаления чата из личного кабинета данные продолжают храниться на стороне сервиса. В ChatGPT этот срок по умолчанию составляет 30 дней, но его могут продлить, если содержимое чата представляет угрозу безопасности или может служить доказательством правонарушения. В других нейросетях срок хранения достигает 30–90 дней. Некоторые сервисы, например DeepSeek, собирают не только логи, но и информацию об устройствах пользователей, включая шаблоны нажатий клавиш, даже после удаления аккаунта.

К логам разговоров с ИИ могут незаметно подключаться модераторы и разработчики — для улучшения моделей и анализа поведения. В основном такие диалоги не персонализированы, но при желании любой чат можно привязать к аккаунту и выйти на пользователя. Если человек становится фигурантом расследования, прокурор вправе запросить у компании-разработчика содержимое чатов. И получит их с меньшими трудностями, чем личные переписки в мессенджерах. В странах с жёсткой нормативной базой передача пользовательских данных по требованию суда — распространённая практика. В России МВД или ФСБ также могут затребовать доступ к перепискам с ИИ, как правило, по серьёзным уголовным статьям (терроризм и т.п.). Однако юристы не исключают, что в будущем такие данные запросят и при имущественных спорах, расследовании киберугроз или нарушении NDA.

В российской правоприменительной практике переписка через мессенджеры уже используется как доказательство — в арбитражных и гражданских делах. Со временем к чатам с ИИ могут относиться так же, при условии достоверной идентификации пользователя. Владелец юридического бюро «Палюлин и партнеры» Антон Палюлин отмечает: переписка с ИИ вполне подходит под определение косвенных доказательств. Если они получены с соблюдением процессуальных норм, такие доказательства могут дополнить картину правонарушения и повлиять на мнение суда, например указать на мотив. Но не смогут быть единственным аргументом в судебных спорах. При этом закона, который бы защищал тайну переписки с роботами, пока нет.

С правовой точки зрения крупные централизованные ИИ — это открытая цифровая площадка, где данные перестают быть личными в момент попадания туда. Следить за своими словами в диалоге с нейросетью нужно так же, как в обычных социальных сетях. Что не стоит упоминать? Во-первых, ничего противоправного: способы обойти закон, спрятать улики, не отдавать долги, а также высказывания, которые могут расценить как экстремистские. Даже если вопросы заданы «из любопытства» или «в рамках гипотезы», их содержание может быть интерпретировано иначе при возникновении сопутствующих обстоятельств (уголовное дело, бракоразводный процесс и т.д.). Во-вторых, ничего личного: использование личных данных третьих лиц в переписке с нейросетями может быть расценено как незаконное оперирование персональными данными, особенно при передаче на зарубежные серверы без информированного согласия. Штраф для физлиц — от 10 до 30 тысяч рублей. В-третьих, ничего корпоративного: анализ корпоративных документов и информации под NDA через ИИ может привести к суду со стороны работодателя или контрагента. Летом 2025 года получила огласку история, когда в поисковых сетях начали индексироваться миллионы логов пользователей ChatGPT — из-за того, что пользователи по незнанию настроек делали чаты публичными.

Всё это не означает, что пользоваться нейросетями не стоит. Но в эпоху цифровой прозрачности лучше отказаться от «проверки границ допустимого» даже в переписке с машиной. Сценарии, при которых ваш диалог из конфиденциального становится публичным, уже не теория, а реальность. Поэтому всё, что потенциально нарушает закон или может быть расценено как подготовка к нарушению, стоит оставить за пределами любого цифрового диалога — особенно если речь идёт о личных данных, конфиденциальной информации или о том, чем вы не хотели бы делиться ни с кем.

Читать полностью

2016-2026 © PALYULIN.RU