Интеграция искусственного интеллекта в бизнес-процессы невозможна без использования данных. Однако, когда речь заходит о клиентах или сотрудниках, вступает в силу жесткое регулирование. Обработка персональных данных нейросетями в 2026 году является объектом пристального внимания Роскомнадзора. Главная проблема заключается в «черном ящике»: оператор данных не всегда понимает, как именно алгоритм использует информацию и где она сохраняется.

«Ключевая ошибка бизнеса — полагать, что согласие на «маркетинговые рассылки» автоматически разрешает скармливать данные клиента нейросети для обучения. Это разные цели обработки. Нарушение принципа целеполагания (ст. 5 152-ФЗ) ведет к штрафам и предписанию удалить обученную модель, что означает потерю миллионов рублей инвестиций в разработку».

Юристы Ви Эф Эс Консалтинг специализируются на Privacy Compliance в сфере высоких технологий. Мы помогаем легализовать работу с Big Data, не тормозя развитие продуктов.

Специфика обработки данных в ML

1. Цель сбора и обучения

Согласно закону, обработка должна ограничиваться достижением конкретных целей. «Улучшение качества сервиса» — слишком размытая формулировка для Роскомнадзора. Мы помогаем сформулировать цели так, чтобы они покрывали и эксплуатацию (Inference), и дообучение (Training) модели, но оставались законными.

2. Автоматизированные решения

Если ваша нейросеть принимает решения, имеющие юридические последствия (отказ в найме, блокировка аккаунта, скоринг), вы обязаны:

  • Уведомить об этом субъекта.
  • Разъяснить порядок принятия решения.
  • Предоставить возможность обжалования с участием живого оператора.
VFS Consulting Юридические решения нового поколения
Обработка персональных данных нейросетями: Риски и правила
+7 (495) 266-06-93
  • Юридическая помощь в решении проблемных ситуаций
  • Консультации юриста онлайн проводятся Пн-Пт, с 10:00 до 18:00 часов

    3. Трансграничная передача

    Многие компании используют API зарубежных моделей (OpenAI, Anthropic). Это считается трансграничной передачей данных. С 2023 года правила ужесточились: необходимо уведомлять РКН до начала передачи. Мы готовим пакет документов для уведомления, включая оценку мер защиты иностранного партнера.

    Наши услуги по защите данных в AI

    Мы предлагаем комплексный подход:

    • Data Mapping: Картирование потоков данных. Мы выясняем, какие именно данные попадают в модель.
    • DPIA (Оценка воздействия): Анализ рисков для прав субъектов.
    • Документация: Разработка Политики в отношении обработки данных при использовании систем ИИ.

    Не рискуйте базой клиентов. Постройте прозрачную систему работы с данными вместе с нами.

    Получить консультацию

    Кейсы из практики

    ai

    Аудит обработки данных ритейлера для рекомендательной системы

    Федеральная торговая сеть внедрила нейросеть для персонализации предложений, объединяя данные из онлайн-магазина и офлайн-касс. Роскомнадзор выявил риск избыточного сбора данных (нарушение принципа минимизации). Мы провели аудит Data Flow, исключили из обработки избыточные поля (например, имена детей покупателей) и переписали политику конфиденциальности, обосновав законный интерес компании в маркетинговой аналитике.

    Результат

    Процессы приведены в соответствие. Штрафов нет.

    ai

    Легализация скоринга заемщиков с использованием Big Data

    МФО использовала нейросеть для анализа цифрового следа заемщиков в соцсетях. Возникли риски нарушения ст. 22 152-ФЗ (автоматизированное принятие решений). Мы внедрили процедуру «человека в контуре» (human-in-the-loop), разработали форму согласия на обработку общедоступных данных и регламент ручного пересмотра отказов, что позволило компании продолжить использование технологии легально.

    Результат

    Модель скоринга признана законной. Жалобы клиентов отклонены.

    Часто задаваемые вопросы

    Ответы на вопросы о Privacy в ML.

    Можно ли использовать данные клиентов для обучения ИИ без их ведома?
    Нет. Это является изменением цели обработки данных. Необходимо либо получить отдельное согласие, либо обезличить данные так, чтобы их невозможно было связать с конкретным человеком (что технически сложно).
    Считается ли голос персональными данными?
    Да, голос является биометрическим персональным данным, если он используется для установления личности. Его обработка требует письменного согласия и соблюдения требований по защите биометрии.
    Что грозит за незаконную обработку данных нейросетью?
    Штрафы до 18 млн рублей (при повторном нарушении локализации), блокировка ресурса и предписание об уничтожении незаконно полученных данных и результатов их обработки (самой модели).

    Консультация юриста

    Заполните форму, и наш эксперт свяжется с вами для бесплатной консультации





      Нажимая кнопку, вы соглашаетесь с политикой конфиденциальности