Дискуссии о необходимости принять специальный закон об искусственном интеллекте рф ведутся несколько лет. Государство стремится упорядочить сферу, которая развивается взрывными темпами. Что ждать бизнесу? Жесткого контроля или рамочных норм? И как не нарушить уже существующие правила, пока новый закон только пишется?

«Российский законодатель движется в сторону риск-ориентированного подхода. Это значит, что системы ИИ, которые могут причинить вред жизни или здоровью (медицина, транспорт), будут регулироваться максимально жестко, вплоть до лицензирования. Развлекательный ИИ останется в зоне мягкого регулирования».

Ви Эф Эс Консалтинг анализирует законопроекты и помогает бизнесу адаптироваться к будущим нормам заранее.

Чего ожидать от законодателя?

  1. Ответственность за вред: Введение презумпции вины оператора системы ИИ за ущерб, причиненный алгоритмом (если не доказано иное).
  2. Маркировка: Обязательное уведомление граждан о взаимодействии с ИИ (уже частично работает в законе о защите прав потребителей).
  3. Прозрачность: Требование раскрывать алгоритмы принятия решений для госорганов.

Как подготовиться?

  • Провести классификацию своих AI-систем по уровням риска.
  • Внедрить систему менеджмента качества данных.
  • Застраховать кибер-риски и ответственность.

Мы помогаем компаниям строить комплаенс-системы, устойчивые к изменениям законодательства.

VFS Consulting Юридические решения нового поколения
Закон об искусственном интеллекте РФ: перспективы и риски
+7 (495) 266-06-93
  • Юридическая помощь в решении проблемных ситуаций
  • Консультации юриста онлайн проводятся Пн-Пт, с 10:00 до 18:00 часов

    Получить консультацию

    Кейсы из практики

    ai

    Подготовка компании к вступлению в силу новых норм об ИИ

    В преддверии принятия поправок, вводящих риск-ориентированный подход к ИИ в РФ, крупный логистический оператор заказал аудит своих систем автопилота. Мы проанализировали алгоритмы на соответствие ожидаемым требованиям безопасности, внедрили систему регистрации инцидентов и застраховали ответственность за причинение вреда ИИ, подготовив клиента к новому регулированию.

    Результат

    Компания готова к изменениям закона. Риски штрафов минимизированы.

    ai

    Ответственность за сбой ИИ на производстве

    На заводе произошел сбой роботизированной линии с ИИ, повлекший брак. Заказчик требовал возмещения убытков, ссылаясь на закон о защите прав потребителей. Мы защищали разработчика ПО, доказав, что сбой произошел из-за нарушения условий эксплуатации и «отравления данных» датчиков, а не из-за дефекта алгоритма. Ответственность была переложена на эксплуатирующую организацию.

    Результат

    Иск отклонен. Разработчик освобожден от выплат.

    Часто задаваемые вопросы

    Вопросы о будущем законодательстве.

    Когда вступит в силу закон об ИИ?
    Точной даты нет, но отдельные нормы (о дипфейках, рекомендательных алгоритмах) уже вносятся в существующие законы. Полноценный Цифровой кодекс ожидается в ближайшие годы.
    Будут ли запрещать ChatGPT в России законом?
    Запрета технологии не планируется, но могут быть введены требования по локализации данных и соблюдению российских законов для зарубежных провайдеров.
    Нужно ли страховать ответственность при использовании ИИ?
    Пока это добровольно, но законодатель рассматривает введение обязательного страхования для высокорисковых систем (беспилотники, медицина).

    Консультация юриста

    Заполните форму, и наш эксперт свяжется с вами для бесплатной консультации





      Нажимая кнопку, вы соглашаетесь с политикой конфиденциальности