Обучение машинного обучения (ML) требует данных, но использование персональных данных (ПДн) сопряжено с юридическими рисками и необходимостью получения согласий. Элегантный выход — обезличивание данных для обучения моделей. Если данные перестают быть персональными, они выходят из-под действия жесткого 152-ФЗ. Однако Роскомнадзор предъявляет строгие требования к методам обезличивания.

«Просто удалить колонку с ФИО — это не обезличивание. Это псевдонимизация. Если по оставшимся косвенным признакам (геолокация, история покупок, модель телефона) можно вычислить человека, вы все еще обрабатываете ПДн. Истинная анонимизация — это сложный математический процесс, который мы помогаем внедрить юридически грамотно».

Ви Эф Эс Консалтинг помогает компаниям превратить рискованные персональные данные в безопасный актив для обучения ИИ (Big Data).

Правовой статус обезличенных данных

В 2026 году законодательство разделяет:

  • Обезличенные данные: Действия, в результате которых становится невозможным определить принадлежность данных конкретному субъекту без использования дополнительной информации. Они все еще регулируются 152-ФЗ.
  • Анонимизированные данные: Данные, связь которых с личностью утрачена безвозвратно. Они не являются ПДн и могут свободно использоваться для ML.

Методы обезличивания (Приказ РКН № 996)

Мы помогаем выбрать и задокументировать метод:

  1. Метод введения идентификаторов: Замена ФИО на уникальный ID (требует хранения таблицы соответствия).
  2. Метод изменения состава или семантики: Обобщение (замена точного возраста на диапазон «20-30 лет») или снижение точности геоданных.
  3. Метод декомпозиции: Разделение базы на части, которые по отдельности не позволяют идентифицировать личность.
  4. Дифференциальная приватность (Differential Privacy): Добавление математического шума в данные, что позволяет сохранить статистические свойства для ИИ, но скрывает конкретных лиц.

Наши услуги

  • Разработка регламента обезличивания.
  • Аудит устойчивости к атакам деанонимизации.
  • Оформление передачи обезличенных данных третьим лицам.

Грамотное обезличивание открывает возможности для монетизации данных и безопасного обучения ИИ.

VFS Consulting Юридические решения нового поколения
Обезличивание данных для обучения моделей: Методы и право
+7 (495) 266-06-93
  • Юридическая помощь в решении проблемных ситуаций
  • Консультации юриста онлайн проводятся Пн-Пт, с 10:00 до 18:00 часов

    Получить консультацию

    Кейсы из практики

    ai

    Создание синтетического датасета на основе реальных медданных

    Медтех-стартап не мог использовать реальные карты пациентов для обучения ИИ из-за врачебной тайны. Мы юридически сопроводили процесс создания синтетических данных (Synthetic Data Generation): реальные данные были использованы только внутри защищенного контура клиники для обучения генератора, который создал полностью вымышленный, но статистически достоверный датасет. Это позволило вывести продукт на рынок легально.

    Результат

    Датасет признан безопасным. Разработка ускорена.

    ai

    Защита от атаки деанонимизации (Re-identification risk)

    Телеком-оператор продавал агрегированные данные о перемещениях абонентов для обучения городских ИИ-систем. Исследователи безопасности показали, что данные можно деанонимизировать. Мы провели аудит методов обезличивания, внедрили методы k-anonymity и differential privacy, а также пересмотрели договоры с покупателями данных, добавив запрет на попытки ре-идентификации под угрозой штрафа.

    Результат

    Риски утечки устранены. Процесс продаж сохранен.

    Часто задаваемые вопросы

    Ответы на вопросы об анонимизации.

    Можно ли продавать обезличенные данные?
    Да, если процедура обезличивания проведена корректно и данные перестали быть персональными. Однако важно убедиться в невозможности обратной деанонимизации.
    Хуже ли обучается нейросеть на обезличенных данных?
    Возможно незначительное снижение точности, но современные методы (например, Differential Privacy) позволяют сохранить полезность данных для ML при высоком уровне защиты приватности.
    Нужно ли согласие пользователя на обезличивание?
    По текущей трактовке закона — да, так как обезличивание является одним из способов обработки персональных данных. Это согласие обычно включают в основной текст политики конфиденциальности.

    Консультация юриста

    Заполните форму, и наш эксперт свяжется с вами для бесплатной консультации





      Нажимая кнопку, вы соглашаетесь с политикой конфиденциальности