Почему бизнес рискует при использовании ChatGPT

Компании внедряют генеративный интеллект для написания кода, подготовки отчетов и анализа данных. Сотрудники копируют внутренние документы в интерфейс чат-бота. В этот момент контроль над информацией исчезает. OpenAI по умолчанию использует историю диалогов для обучения будущих версий нейросети. Если менеджер загрузит финансовый план или детали сделки, эти данные попадут в общую базу.

Ввод конфиденциальных данных в ChatGPT равносилен их публикации в открытом доступе. Без настройки режима приватности информация становится частью обучающей выборки.

Утечка коммерческой тайны и персональных данных

Закон о коммерческой тайне обязывает владельца принимать меры по ее охране. Передача данных стороннему сервису без специального соглашения нарушает этот режим. Вы теряете право на защиту секретов в суде. Аналогичная ситуация возникает с персональными данными клиентов и сотрудников. Российское законодательство запрещает передачу ПДн на серверы без подтвержденного уровня безопасности и согласия субъекта.

Нарушение авторских прав

Нейросети создают контент на основе миллионов защищенных произведений. Существует риск, что ChatGPT выдаст фрагмент кода или текста, который нарушает чужую интеллектуальную собственность. Использование таких результатов в коммерческих продуктах ведет к искам. При этом авторское право в России признает автором только человека. Результат работы ИИ не получает автоматической правовой охраны.

Разработка корпоративной AI Policy

Бессистемное использование нейросетей создает хаос. Компании нужна AI Policy — внутренний регламент, определяющий правила взаимодействия с искусственным интеллектом. Этот документ заменяет устные запреты четким алгоритмом действий. Вы разделяете задачи на допустимые и запрещенные.

Типовая структура политики использования ИИ включает следующие разделы:

VFS CONSULTING Юридические решения для малого, среднего и крупного бизнеса в России и за рубежом
Консультация
+7 (495) 118 24 84
  • Перечень разрешенных сервисов. Укажите конкретные модели (ChatGPT Enterprise, локальные LLM, API), которые прошли проверку безопасности.
  • Классификация данных. Опишите типы информации, которые категорически запрещено вводить в промпты.
  • Требования к фактчекингу. Обяжите сотрудников проверять факты и ссылки, сгенерированные нейросетью.
  • Маркировка контента. Установите правила уведомления клиентов о том, что текст или изображение создал ИИ.
  • Ответственность. Определите последствия за нарушение политики безопасности.

Обновление NDA и трудовых договоров

Стандартные соглашения о неразглашении не учитывают работу с нейросетями. Юристы Ви Эф Эс Консалтинг дополняют NDA пунктами о запрете передачи данных в облачные модели ИИ. Мы внедряем формулировки, которые приравнивают ввод информации в LLM к передаче данных третьим лицам. Это позволяет привлекать к дисциплинарной ответственности сотрудников, игнорирующих цифровую гигиену.

В трудовой договор мы вносим пункты о принадлежности исключительных прав. Если сотрудник использует ИИ для выполнения служебного задания, компания должна зафиксировать право на результат. Мы прописываем обязанность работника дорабатывать и верифицировать ИИ-контент для придания ему статуса объекта авторского права.

Локальный нормативный акт и обновленный NDA создают юридический барьер против утечек и защищают активы компании.

Технические и юридические шаги по внедрению

Безопасное использование ChatGPT требует комплексного подхода. Одних юридических запретов недостаточно. Необходимо настроить программную среду и обучить персонал.

  1. Переход на Enterprise-решения. Используйте корпоративные версии ChatGPT с отключенным обучением на ваших данных (Zero Data Retention).
  2. Использование API. Настройте доступ через программный интерфейс. Данные, переданные через API, OpenAI не использует для тренировки моделей по умолчанию.
  3. Внедрение DLP-систем. Настройте системы предотвращения утечек на блокировку передачи чувствительных данных в домены openai.com и аналогичные сервисы.
  4. Аудит процессов. Юристы анализируют, в каких департаментах ИИ приносит пользу, а где создает критические риски.

Ответственность за ошибки ИИ

Галлюцинации нейросети — юридическая ловушка. Если ChatGPT выдумает статью закона в юридическом заключении или ошибется в расчетах для клиента, ответственность несет компания. Суд не примет ссылку на технический сбой ИИ как оправдание. Мы внедряем регламенты обязательной человеческой проверки (Human-in-the-loop). Каждый результат работы алгоритма должен подписать ответственный сотрудник. Это переводит ответственность с анонимного алгоритма на конкретное должностное лицо.

Ви Эф Эс Консалтинг помогает бизнесу адаптироваться к эпохе генеративного ИИ. Мы разрабатываем AI Policy, адаптируем внутреннюю документацию и минимизируем правовые риски. Ваша команда получит инструменты для эффективной работы без угрозы безопасности и репутации.

Оставьте заявку или напишите вTelegram
360°
Комплексный подход
от 3500
Юридическая поддержка
AI
ИИ-аналитика
90%
Услуг оказаны удаленно

Кейсы из практики

ai

Утечка исходного кода через ChatGPT: Кейс IT-компании

Разработчики клиента использовали ChatGPT для рефакторинга проприетарного кода, загружая туда целые модули ядра. Конкуренты теоретически могли получить доступ к этим фрагментам через обучение модели. Мы провели расследование, оценили ущерб и внедрили жесткий запрет на использование публичных LLM для конфиденциальных задач, переведя компанию на локально развернутую модель (Llama Enterprise).

Результат

Каналы утечки перекрыты. IP защищено новыми регламентами.

ai

Диффамация в ответе чат-бота: Защита репутации

Чат-бот на сайте компании выдал клиенту информацию о том, что партнер компании якобы является мошенником (галлюцинация). Партнер подал иск о защите деловой репутации. Мы доказали в суде, что это был технический сбой, а не позиция компании, оперативно скорректировали промпты бота и заключили мировое соглашение с публикацией опровержения.

Результат

Репутация восстановлена. Риски галлюцинаций застрахованы.

Часто задаваемые вопросы

FAQ по безопасности LLM.

Можно ли уволить сотрудника за использование ChatGPT?
Если в компании нет утвержденной политики запрета — сложно. Но если сотрудник нарушил режим коммерческой тайны, загрузив данные в чат — увольнение правомерно.
Кому принадлежат ответы ChatGPT в корпоративном аккаунте?
Обычно компании-владельцу аккаунта, но с оговоркой, что эти права не являются исключительными (неэксклюзивные права).
Безопасен ли ChatGPT Enterprise?
Да, OpenAI заявляет, что данные Enterprise-клиентов не используются для обучения моделей и шифруются. Это наиболее безопасный вариант для бизнеса.

Задать вопрос юристу

Заполните форму, и наш специалист свяжется с вами для согласования даты и времени Он-лайн консультации


    — или —
    Задайте вопрос в Telegram vfsconsulting