Цифровой след человека в XXI веке стал практически вечным. Однако законодательство (включая российский 152-ФЗ и европейский GDPR) гарантирует гражданам фундаментальное право на удаление информации о себе. До недавнего времени этот механизм, известный как «право на забвение» (Right to be Forgotten), применялся к поисковым системам и базам данных. Но с приходом генеративного искусственного интеллекта ситуация кардинально изменилась. Право на забвение в нейросетях стало сложнейшей юридической и технологической головоломкой 2026 года.
Когда ваша фотография, голос или персональные данные попадают в датасет для обучения нейросети (Training Set), они перестают существовать в виде отдельного файла. Они «растворяются» в миллиардах числовых параметров (весов) модели, формируя её «опыт». Можно ли удалить конкретную каплю из океана? И что делать бизнесу, если регулятор требует невозможного — «забыть» то, что нейросеть уже «выучила»?
«Проблема Machine Unlearning (машинного забывания) — это не просто техническая трудность, это прямой юридический риск. Если пользователь отозвал согласие на обработку данных, а ваша модель продолжает использовать паттерны его поведения или биометрии, вы нарушаете закон. Штрафы за незаконную обработку данных в России растут ежегодно, а репутационные издержки от «цифровых призраков» могут быть катастрофическими».
В этой статье эксперты Ви Эф Эс Консалтинг разбирают правовые механизмы защиты приватности в эпоху ИИ, технические способы исполнения требований закона и алгоритмы действий для DPO (Data Protection Officers).
Почему удалить данные из ИИ так сложно?
В отличие от удаления строки из Excel, удаление данных из нейросети сопряжено с рисками разрушения самой модели.
- Стохастическая природа: Нейросеть не хранит фото Иванова И.И., она хранит обобщенный образ «мужчины в очках». Однако атаки типа Model Inversion Attack доказали, что при определенных запросах модель может восстановить и выдать точное исходное изображение или текст (например, номер кредитки).
- Катастрофическое забывание: Попытка принудительно изменить веса модели, чтобы удалить информацию об одном человеке, может привести к тому, что модель разучится выполнять свою основную функцию (например, перестанет распознавать лица вообще).
Правовая база: Что требует закон?
В Российской Федерации право на удаление данных регулируется несколькими нормами:
- Ст. 21 Федерального закона № 152-ФЗ: При отзыве субъектом согласия на обработку персональных данных оператор обязан прекратить их обработку и уничтожить их в срок, не превышающий 30 дней. Закон не делает исключений для «обученных моделей».
- Ст. 10.3 Федерального закона № 149-ФЗ: Право требовать от операторов поисковых систем (теперь и AI-поисковиков) прекращения выдачи ссылок на недостоверную или неактуальную информацию.
- ГК РФ (охрана изображения): Если модель генерирует дипфейк конкретного лица без согласия, это нарушение ст. 152.1 ГК РФ, требующее удаления материального носителя.
В международной практике (GDPR) развивается концепция Algorithmic Disgorgement — принудительного удаления не только данных, но и самих моделей/алгоритмов, обученных на незаконно полученных данных. Российские суды пока не применяли такую меру, но тренд на ужесточение очевиден.
Стратегии защиты для бизнеса (Compliance)
Как выполнить требование об удалении и не разориться на переобучении моделей стоимостью в миллионы долларов?
1. Архитектура SISA (Sharded, Isolated, Sliced, Aggregated)
Это превентивная мера. Мы помогаем составить ТЗ для ML-команд, предусматривающее обучение на изолированных фрагментах данных (шардах). Если приходит требование на удаление, переобучается только один маленький сегмент, а не вся модель. Это юридически признается надлежащим исполнением требования об уничтожении.
2. Фильтрация на уровне инференса (Guardrails)
Если «забыть» данные внутри весов невозможно, мы создаем юридическую конструкцию, где «прекращением обработки» считается гарантированная техническая блокировка доступа к результату. Специальные надстройки (фильтры) проверяют каждый ответ нейросети и блокируют его, если он содержит запрещенную информацию. Это оформляется через локальные акты и демонстрируется регулятору как «принятие всех возможных мер».

- Юридическая помощь в решении проблемных ситуаций
- Консультации юриста онлайн проводятся Пн-Пт, с 10:00 до 18:00 часов
3. Анонимизация и синтетические данные
Лучший способ избежать проблем с 152-ФЗ — не использовать ПДн. Мы внедряем процессы дифференциальной приватности (Differential Privacy) и генерации синтетических датасетов. В этом случае отзыв согласия не влияет на модель, так как она обучена не на Иване Ивановиче, а на математической абстракции.
Инструкция для граждан: Как удалить себя из ИИ?
Если вы стали жертвой нейросети (ваше лицо в дипфейке, ваши данные в чат-боте):
- Шаг 1: Идентификация оператора. Выясните, кто владеет нейросетью. Направьте официальный запрос на основании ст. 14 152-ФЗ, чтобы узнать, обрабатываются ли ваши данные.
- Шаг 2: Требование об удалении. Направьте заявление об отзыве согласия и требование прекратить обработку. Укажите конкретные признаки (ссылки, скриншоты генераций).
- Шаг 3: Жалоба в РКН. Если оператор ответил отпиской («это не мы, это алгоритм»), подавайте жалобу в Роскомнадзор. Регулятор имеет рычаги для блокировки сервиса.
- Шаг 4: Суд. Требуйте удаления информации, запрета на использование образа и компенсации морального вреда. В иске важно требовать не просто «удаления файла», а «запрета генерации» образа.
Технологии не стоят над законом. Ви Эф Эс Консалтинг обладает экспертизой, чтобы защитить вашу приватность или легализовать ваши алгоритмы в сложной правовой среде.
