В "Палюлин и партнеры" прокомментировали, могут ли переписки с ИИ стать доказательствами в суде

30 июля 2025 9:02

Источник: Секрет Фирмы

Скандальное заявление основателя OpenAI Сэма Альтмана о возможности использования переписок с ChatGPT в судебных процессах вызвало волну обсуждений. "Палюлин и партнеры" разбираются, насколько реальна эта угроза для российских пользователей и как нейросети уже сегодня влияют на судебную практику.

Что сказал Альтман и почему это важно?

Глава OpenAI подтвердил: компания хранит логи переписок и может предоставлять их по запросу правоохранительных органов. "Если вы обсуждаете с ИИ приватные темы, а затем возникает судебное разбирательство, эти данные могут быть использованы против вас", — предупредил Альтман.

Хотя ChatGPT удаляет диалоги через 30 дней (если не включено сохранение истории), разработчики оставляют за собой право хранить данные дольше — например, при расследовании преступлений. Это касается не только OpenAI, но и других ИИ-платформ.

Могут ли переписки с ИИ стать доказательствами в России?

Антон Палюлин, судебный эксперт и владелец бюро "Палюлин и партнеры", поясняет:

"Согласно статье 74 УПК РФ, доказательствами могут считаться любые сведения, имеющие значение для дела. Однако ключевое условие — законность их получения."

Это означает, что:

  1. Переписка с ИИ может быть приобщена к делу, но только если получена в рамках процессуальных норм (например, по решению суда).

  2. Подлинность данных должна быть подтверждена — через цифровую экспертизу или нотариальное заверение скриншотов.

  3. Если информация добыта незаконно (например, через взлом), суд её не примет.

Пример из практики:

"В деле об убийстве переписка подозреваемого с ИИ о способах сокрытия преступления может стать косвенным доказательством умысла", — отмечает Палюлин.

Опасные сценарии: о чем не стоит говорить с ИИ

Юристы выделяют несколько рисков:

  • Разглашение конфиденциальной информации. Загрузка служебных документов в ИИ может привести к утечке данных и судебным искам.

  • Обсуждение противоправных действий. Даже гипотетические вопросы ("Как обойти закон?") могут привлечь внимание правоохранителей.

  • Ошибки ИИ. Нейросети иногда "галлюцинируют", и их ответы нельзя считать достоверными.

Защита данных: что делать пользователям?

  1. Отключать сохранение истории в настройках ИИ-сервисов.

  2. Не доверять нейросетям конфиденциальные данные — медицинские, финансовые или корпоративные сведения.

  3. Использовать VPN или российские аналоги ChatGPT, если важно избежать иностранной юрисдикции.

Антон Палюлин подчеркивает:

"Пока нет четкой судебной практики, но игнорировать риски нельзя. Конституция защищает тайну переписки между людьми, но диалоги с ИИ пока в "серой зоне". Лучшая стратегия — осознанность и осторожность."

Читать полностью

2016-2025 © PALYULIN.RU