Цифровые данные остаются в сети навсегда. Российский закон 152-ФЗ гарантирует гражданам право на удаление информации. Раньше этот механизм затрагивал только поисковые системы. Появление генеративного искусственного интеллекта усложнило задачу. Машинное обучение превратило право на забвение в технологический вызов.

Почему нейросети не забывают данные

Нейросеть не хранит информацию в виде отдельных файлов или строк базы данных. Алгоритм изучает обучающую выборку и преобразует ее в математические веса. Данные конкретного пользователя растворяются в миллиардах параметров модели. Разработчики сталкиваются с двумя главными проблемами при попытке удаления информации.

  • Стохастическая природа весов. Модель запоминает не личность, а статистические закономерности. При определенных запросах нейросеть восстанавливает исходные данные через атаки инверсии.
  • Катастрофическое забывание. Попытка изменить веса для удаления одного фрагмента данных часто ломает всю модель. Система перестает выполнять основные задачи.

Проблема машинного забывания создает юридические риски для владельцев ИИ. Если пользователь отозвал согласие, а модель продолжает использовать его данные, компания нарушает закон. Регуляторы увеличивают штрафы за незаконную обработку персональных данных.

Законодательная база: требования 152-ФЗ и ГК РФ

Российское право жестко регулирует работу с персональными данными. Операторы ИИ обязаны соблюдать несколько ключевых норм.

Статья 21 закона 152-ФЗ обязывает компанию прекратить обработку данных после отзыва согласия. Срок исполнения составляет 30 дней. Закон не предусматривает исключений для обученных моделей. Если данные попали в веса нейросети, оператор должен найти способ их нейтрализации.

Статья 10.3 закона 149-ФЗ обязывает поисковые сервисы прекращать выдачу ссылок на неактуальную информацию. Современные AI-поисковики подпадают под это требование. ГК РФ защищает изображение гражданина. Если модель генерирует дипфейк без разрешения, автор нарушает статью 152.1 ГК РФ.

Мировая практика вводит термин Algorithmic Disgorgement. Это принудительное уничтожение целых алгоритмов, если они обучались на украденных данных. Российские регуляторы внимательно изучают этот опыт для внедрения в судебную практику.

VFS CONSULTING Юридические решения для малого, среднего и крупного бизнеса в России и за рубежом
Консультация
+7 (495) 118 24 84

Стратегии Machine Unlearning для бизнеса

Компании могут выполнить требования закона без полной остановки сервиса. Эксперты выделяют три эффективных метода защиты.

Метод SISA (Sharded, Isolated, Sliced, Aggregated). Разработчики делят данные на изолированные сегменты. Модель обучается на этих фрагментах отдельно. При получении требования об удалении компания переобучает только один маленький сегмент. Это экономит ресурсы и соблюдает закон.

Фильтрация ответов (Guardrails). Если удалить данные из весов невозможно, компания настраивает программные фильтры. Система проверяет каждый ответ нейросети перед выдачей. Фильтр блокирует персональную информацию. Юристы оформляют это как прекращение доступа к данным.

Анонимизация. Лучшая стратегия заключается в отказе от использования персональных данных на этапе обучения. Дифференциальная приватность и синтетические наборы данных исключают риски по 152-ФЗ. Модель изучает математические абстракции, а не конкретных людей.

Инструкция для граждан по удалению данных из ИИ

Если вы обнаружили свои данные или образ в выдаче нейросети, следуйте алгоритму действий.

  1. Найдите владельца сервиса. Определите юридическое лицо, которое управляет алгоритмом. Проверьте политику конфиденциальности на сайте.
  2. Отправьте официальное требование. Составьте запрос на основании статьи 14 закона 152-ФЗ. Потребуйте прекратить обработку и удалить информацию. Приложите доказательства: скриншоты или ссылки.
  3. Подайте жалобу в Роскомнадзор. Используйте электронную приемную регулятора, если компания игнорирует запрос в течение 30 дней. Укажите, что оператор нарушает порядок уничтожения данных.
  4. Обратитесь в суд. Требуйте запрета на генерацию вашего образа и компенсации морального вреда. Просите суд обязать компанию исключить ваши данные из обучающей выборки.

Роль экспертов в спорах об ИИ

Технологии развиваются быстрее законодательства. Юристы Ви Эф Эс Консалтинг помогают бизнесу легализовать алгоритмы. Мы разрабатываем политики обработки данных и представляем интересы клиентов в спорах с ИТ-гигантами. Право на забвение в эпоху ИИ требует сочетания глубоких знаний кода и параграфов закона. Мы защищаем вашу приватность и обеспечиваем стабильность вашего бизнеса в цифровой среде.

Оставьте заявку или напишите вTelegram
360°
Комплексный подход
от 3500
Юридическая поддержка
AI
ИИ-аналитика
90%
Услуг оказаны удаленно

Кейсы из практики

ai

Прецедент: Удаление голоса актера из базы синтеза речи

Актер озвучивания обнаружил, что его голос, записанный 5 лет назад для навигатора, используется в новом сервисе генерации аудиокниг. Договор не предусматривал использование биометрии для обучения ИИ. Мы направили претензию с требованием прекратить использование (ст. 152.1 ГК РФ). Разработчик заявил, что удалить голос из модели невозможно без её разрушения. В ходе переговоров мы добились выплаты существенной компенсации и внедрения «заплатки» (patch), блокирующей генерацию голосом истца, что было зафиксировано в мировом соглашении.

Результат

Компенсация 3 млн руб. Голос заблокирован.

ai

Защита поисковой выдачи от галлюцинаций нейросети

AI-поиск (SGE) начал выдавать краткую справку о клиенте, приписывая ему судимость полного тезки. Классическое SEO-удаление ссылок не помогало, так как текст генерировался «на лету». Мы инициировали процедуру по закону о «праве на забвение» (ст. 10.3 149-ФЗ), адаптировав требования под алгоритмическую выдачу. Оператор поисковой системы был вынужден вручную скорректировать веса ответов для данного запроса, исключив порочащую информацию из генерации.

Результат

Выдача исправлена. Создан прецедент для AI-поиска.

Часто задаваемые вопросы

Частые вопросы об удалении данных из AI.

Можно ли удалить данные из ChatGPT?
Да, OpenAI предоставляет форму для запроса на удаление персональных данных («Right to be forgotten»). Однако они предупреждают, что удаление из обученной модели технически сложно, поэтому чаще всего применяют блокировку выдачи этой информации в ответах.
Обязан ли я доказывать вред для удаления данных?
Нет. Согласно 152-ФЗ, субъект данных имеет право отозвать согласие в любой момент без объяснения причин. Оператор обязан прекратить обработку, если нет иных законных оснований для её продолжения.
Распространяется ли право на забвение на фото в соцсетях, использованные для ИИ?
Да. То, что вы опубликовали фото в открытом доступе, не дает права третьим лицам (разработчикам ИИ) использовать его для обучения коммерческих моделей. Вы можете требовать исключения ваших данных из датасета.

Задать вопрос юристу

Заполните форму, и наш специалист свяжется с вами для согласования даты и времени Он-лайн консультации


    — или —
    Задайте вопрос в Telegram vfsconsulting