Аналитика: Законопроект об ИИ

Проект №166424 | Вступление: 2027 г.
Базовые параметры законопроекта «Об основах государственного регулирования сфер применения технологий ИИ в РФ». Нажмите на карточки субъектов ниже, чтобы интерактивно изучить их обязанности.

✨ Ключевые новеллы

  • Введение понятий «суверенная» и «доверенная» модели ИИ.
  • Обязательная маркировка сгенерированного контента.
  • ⚠️ Презумпция виновности разработчика ИИ.
  • Легализация TDM (майнинг данных) без согласия авторов.
Площадка публикации
regulation.gov.ru
Статус
Публичное обсуждение завершено

Субъекты регулирования

💻 Создатель

Разработчик ИИ

Обучает и создает архитектуру
  • Обеспечение безопасности
  • Документирование для Минцифры
  • Несет презумпцию виновности
⚙️ Поддержка

Оператор ИИ

Обеспечивает работу системы
  • Тестирование и техобслуживание
  • Учет и фиксация инцидентов
💼 Бизнес

Владелец сервиса

Предоставляет доступ к ИИ
  • Информирование пользователей
  • Маркировка контента
  • Обязанности ОРД при >500к польз.
👤 Клиент

Пользователь

Конечный потребитель
  • Соблюдение правил доступа
  • Запрет на противоправное использование
👆 Нажмите на любую карточку для раскрытия подробностей

Концептуальные профили регулирования

Оценка по 5-балльной шкале (РФ против Евросоюза)

Ключевые отличия

Критерий 🇪🇺 ЕС (AI Act) 🇷🇺 РФ (Проект)
Философия Защита прав человека Технологический суверенитет
Классификация 4 уровня риска По происхождению (суверенная и др.)
Штрафы До €35 млн или 7% оборота Не прописаны (серая зона)
Обучение (TDM) Разрешено, есть право на отказ Легализовано без права отказа

Парадокс цепочки ответственности (Презумпция виновности)

Закон возлагает презумпцию виновности на Разработчика базовой модели, даже если вред был причинен после специфической доработки сервиса Владельцем.

👤 Пользователь 💼 Сервис (доработал) ⚙️ Оператор 💻 Разработчик (Отвечает)

Прогноз последствий (ОРВ)

Баланс выгод и издержек для стейкхолдеров

Главные «Слепые зоны»

🔧 Технические пробелы
Отсутствуют измеримые критерии «суверенности». Не определена методика сертификации нейросетей (как сертифицировать «чёрный ящик»?).
📉 Экономические риски
Рост издержек на комплаенс для МСП и стартапов (до 30-50%). Замедление внедрения технологий ИИ из-за правовой неопределенности и риска изоляции.
⚖️ Риски для прав человека
Широкая формулировка «эксплуатация уязвимостей человека» может применяться субъективно. Нет механизмов обжалования решений ИИ.

Технические правки

  • Ввести четкие, измеримые критерии «суверенной модели» (процент кода, локализация дата-центров).
  • Заменить презумпцию виновности на «презумпцию добросовестности».
  • Разработать поэтапный переходный период с пилотными режимами.
  • Создать независимый Экспертный совет по этике ИИ при регуляторе.

Поддержка бизнеса

  • Ввести «регуляторную песочницу» специально для ИИ-стартапов.
  • Освободить от маркировки технический и вспомогательный контент.
  • Упростить процедуры сертификации для моделей с минимальным риском.
«Законопроект подменяет развитие технологий лозунгами о суверенитете, создавая барьеры для инноваций»
«Презумпция виновности разработчика — это шаг назад от принципов правового государства»
«Отсутствие чётких критериев "суверенности" открывает пространство для коррупции и монополизации»
📊 Опора на данные: По оценкам Альянса в сфере ИИ, новые требования могут увеличить издержки разработчиков на 30-50%. При этом 95% крупных РФ-компаний уже используют ИИ в закрытом контуре.
📱 Telegram / VK
🤖 Разбираем новый закон об ИИ (Проект №166424):

✅ Вводят обязательную маркировку всего ИИ-контента
✅ TDM (обучение ИИ на данных) легализуют без спроса авторов
⚠️ Разработчик отвечает за сбои алгоритма, пока сам не докажет обратное

Главный риск: стартапы могут не выдержать новых издержек на комплаенс, а рынок монополизируется в руках гигантов. 

Проект нужно дорабатывать ко второму чтению! Нужна презумпция добросовестности и «песочницы» для бизнеса.

А что думаете вы? Пишите в комментариях 👇
#ИИ #законодательство #IT #инновации