В "Палюлин и партнеры" прокомментировали, могут ли переписки с ИИ стать доказательствами в суде
Источник: Секрет Фирмы
Скандальное заявление основателя OpenAI Сэма Альтмана о возможности использования переписок с ChatGPT в судебных процессах вызвало волну обсуждений. "Палюлин и партнеры" разбираются, насколько реальна эта угроза для российских пользователей и как нейросети уже сегодня влияют на судебную практику.
Что сказал Альтман и почему это важно?
Глава OpenAI подтвердил: компания хранит логи переписок и может предоставлять их по запросу правоохранительных органов. "Если вы обсуждаете с ИИ приватные темы, а затем возникает судебное разбирательство, эти данные могут быть использованы против вас", — предупредил Альтман.
Хотя ChatGPT удаляет диалоги через 30 дней (если не включено сохранение истории), разработчики оставляют за собой право хранить данные дольше — например, при расследовании преступлений. Это касается не только OpenAI, но и других ИИ-платформ.
Могут ли переписки с ИИ стать доказательствами в России?
Антон Палюлин, судебный эксперт и владелец бюро "Палюлин и партнеры", поясняет:
"Согласно статье 74 УПК РФ, доказательствами могут считаться любые сведения, имеющие значение для дела. Однако ключевое условие — законность их получения."
Это означает, что:
-
Переписка с ИИ может быть приобщена к делу, но только если получена в рамках процессуальных норм (например, по решению суда).
-
Подлинность данных должна быть подтверждена — через цифровую экспертизу или нотариальное заверение скриншотов.
-
Если информация добыта незаконно (например, через взлом), суд её не примет.
Пример из практики:
"В деле об убийстве переписка подозреваемого с ИИ о способах сокрытия преступления может стать косвенным доказательством умысла", — отмечает Палюлин.
Опасные сценарии: о чем не стоит говорить с ИИ
Юристы выделяют несколько рисков:
-
Разглашение конфиденциальной информации. Загрузка служебных документов в ИИ может привести к утечке данных и судебным искам.
-
Обсуждение противоправных действий. Даже гипотетические вопросы ("Как обойти закон?") могут привлечь внимание правоохранителей.
-
Ошибки ИИ. Нейросети иногда "галлюцинируют", и их ответы нельзя считать достоверными.
Защита данных: что делать пользователям?
-
Отключать сохранение истории в настройках ИИ-сервисов.
-
Не доверять нейросетям конфиденциальные данные — медицинские, финансовые или корпоративные сведения.
-
Использовать VPN или российские аналоги ChatGPT, если важно избежать иностранной юрисдикции.
Антон Палюлин подчеркивает:
"Пока нет четкой судебной практики, но игнорировать риски нельзя. Конституция защищает тайну переписки между людьми, но диалоги с ИИ пока в "серой зоне". Лучшая стратегия — осознанность и осторожность."
