Почему бизнес рискует при использовании ChatGPT
Компании внедряют генеративный интеллект для написания кода, подготовки отчетов и анализа данных. Сотрудники копируют внутренние документы в интерфейс чат-бота. В этот момент контроль над информацией исчезает. OpenAI по умолчанию использует историю диалогов для обучения будущих версий нейросети. Если менеджер загрузит финансовый план или детали сделки, эти данные попадут в общую базу.
Ввод конфиденциальных данных в ChatGPT равносилен их публикации в открытом доступе. Без настройки режима приватности информация становится частью обучающей выборки.
Утечка коммерческой тайны и персональных данных
Закон о коммерческой тайне обязывает владельца принимать меры по ее охране. Передача данных стороннему сервису без специального соглашения нарушает этот режим. Вы теряете право на защиту секретов в суде. Аналогичная ситуация возникает с персональными данными клиентов и сотрудников. Российское законодательство запрещает передачу ПДн на серверы без подтвержденного уровня безопасности и согласия субъекта.
Нарушение авторских прав
Нейросети создают контент на основе миллионов защищенных произведений. Существует риск, что ChatGPT выдаст фрагмент кода или текста, который нарушает чужую интеллектуальную собственность. Использование таких результатов в коммерческих продуктах ведет к искам. При этом авторское право в России признает автором только человека. Результат работы ИИ не получает автоматической правовой охраны.
Разработка корпоративной AI Policy
Бессистемное использование нейросетей создает хаос. Компании нужна AI Policy — внутренний регламент, определяющий правила взаимодействия с искусственным интеллектом. Этот документ заменяет устные запреты четким алгоритмом действий. Вы разделяете задачи на допустимые и запрещенные.
Типовая структура политики использования ИИ включает следующие разделы:

- Перечень разрешенных сервисов. Укажите конкретные модели (ChatGPT Enterprise, локальные LLM, API), которые прошли проверку безопасности.
- Классификация данных. Опишите типы информации, которые категорически запрещено вводить в промпты.
- Требования к фактчекингу. Обяжите сотрудников проверять факты и ссылки, сгенерированные нейросетью.
- Маркировка контента. Установите правила уведомления клиентов о том, что текст или изображение создал ИИ.
- Ответственность. Определите последствия за нарушение политики безопасности.
Обновление NDA и трудовых договоров
Стандартные соглашения о неразглашении не учитывают работу с нейросетями. Юристы Ви Эф Эс Консалтинг дополняют NDA пунктами о запрете передачи данных в облачные модели ИИ. Мы внедряем формулировки, которые приравнивают ввод информации в LLM к передаче данных третьим лицам. Это позволяет привлекать к дисциплинарной ответственности сотрудников, игнорирующих цифровую гигиену.
В трудовой договор мы вносим пункты о принадлежности исключительных прав. Если сотрудник использует ИИ для выполнения служебного задания, компания должна зафиксировать право на результат. Мы прописываем обязанность работника дорабатывать и верифицировать ИИ-контент для придания ему статуса объекта авторского права.
Локальный нормативный акт и обновленный NDA создают юридический барьер против утечек и защищают активы компании.
Технические и юридические шаги по внедрению
Безопасное использование ChatGPT требует комплексного подхода. Одних юридических запретов недостаточно. Необходимо настроить программную среду и обучить персонал.
- Переход на Enterprise-решения. Используйте корпоративные версии ChatGPT с отключенным обучением на ваших данных (Zero Data Retention).
- Использование API. Настройте доступ через программный интерфейс. Данные, переданные через API, OpenAI не использует для тренировки моделей по умолчанию.
- Внедрение DLP-систем. Настройте системы предотвращения утечек на блокировку передачи чувствительных данных в домены openai.com и аналогичные сервисы.
- Аудит процессов. Юристы анализируют, в каких департаментах ИИ приносит пользу, а где создает критические риски.
Ответственность за ошибки ИИ
Галлюцинации нейросети — юридическая ловушка. Если ChatGPT выдумает статью закона в юридическом заключении или ошибется в расчетах для клиента, ответственность несет компания. Суд не примет ссылку на технический сбой ИИ как оправдание. Мы внедряем регламенты обязательной человеческой проверки (Human-in-the-loop). Каждый результат работы алгоритма должен подписать ответственный сотрудник. Это переводит ответственность с анонимного алгоритма на конкретное должностное лицо.
Ви Эф Эс Консалтинг помогает бизнесу адаптироваться к эпохе генеративного ИИ. Мы разрабатываем AI Policy, адаптируем внутреннюю документацию и минимизируем правовые риски. Ваша команда получит инструменты для эффективной работы без угрозы безопасности и репутации.