Когда государство начинает регулировать технологию, первые три реакции у всех одинаковые.

  • У граждан: «ну и ладно».
  • У бизнеса: «опять бумаги».
  • У ИТ-директора: «к нам это не относится».

Все три реакции неверные.

Проект федерального закона «Об основах государственного регулирования сфер применения технологий искусственного интеллекта в Российской Федерации» — это не очередная декларация о добрых намерениях. Это первый в истории России документ, который юридически описывает, кто вы такой в мире ИИ, что вы обязаны делать, кто вас проверит — и что будет, если вы этого не сделали.

Основные смыслы для дискуссии:

  • Закон создаёт тройную цепочку ответственности за "ошибки ИИ": разработчик → оператор → пользователь. Тут нет строгой линейной очередности ответственности в духе «сначала отвечает разработчик, а если не он — то оператор». Вместо этого закон устанавливает принцип распределённой, долевой ответственности, где каждый отвечает соразмерно своей вине, но для создателей и владельцев ИИ фактически вводится презумпция виновности
  • «Суверенность» модели — новый критерий допуска к госзаказу, потенциально барьер для иностранных решений
  • Большинство норм работает через отсылки к будущим подзаконным актам, что создаёт регуляторную неопределённость сейчас

Сначала — о статусе

Это проект. По плану публичное обсуждение должно закончиться 15 апреля 2026 года, затем он поступит в Госдуму. Планируемая дата вступления в силу — 1 сентября 2027 года. Но примерно треть его положений заработает не с принятием закона, а с выходом подзаконных актов Правительства и ведомств — а их ещё нет. Так что сейчас мы имеем дело с картой будущей территории.

Уметь читать карту полезно уже сейчас.


Если вы обычный человек, которого пользует ИИ

Закон впервые прямо определяет: у вас есть права. Перечислим честно — и что за ними стоит.

Право знать об ИИ. Если ИИ продаёт вам что-то или принимает решение без участия человека — вас обязаны предупредить об этом. Звучит просто. На практике: требования к формату предупреждения определит Правительство. Когда и как — узнаем из подзаконных актов видимо.

Право отказаться от услуг с ИИ. В «случаях, устанавливаемых Правительством» вы можете потребовать сервис без ИИ. Пока этих случаев ноль, потому что Правительство их ещё не установило. Когда банк откажет вам по скоринговой модели — попросить «живого человека» юридически значимым способом пока нельзя. И вот мне прямо очень сомнительно - что реальные бизнесы смогут выполнить через год услуги без ИИ и остаться конкурентосособными... Это прямо как уже сейчас - нужно пройти спецчеллендж, чтобы добраться до живого человека из поддержки сотового оператора. Дальше челлендж будет только усложняться

Право обжаловать решения ИИ. Досудебно — только для решений госорганов, госучреждений и компаний с госучастием. Частная страховая, маркетплейс, агрегатор — живут по-старому. До специального порядка.

Право на компенсацию вреда в результате ошибок ИИ — есть, через гражданский кодекс. То есть: суд, доказывание, юрист, годы.

Маркировка дипфейков и синтезированного контента — теперь будет обязательной. Если вам присылают фейковое видео без пометки «сгенерировано ИИ» — это уже нарушение. Крупные платформы (от 100 тыс. пользователей в сутки - Daily Active Users, DAU) будут обязаны такую маркировку проверять и добавлять. Удалять дипфейки — если не нашли, кто добавит пометку.

Главный практический вывод для пользователя: закон создаёт контур защиты, но кнопка «включить» на большинстве опций будет нажата Правительством позже. Ваша задача сейчас — знать, что эти права существуют, и требовать их реализации по мере выхода подзаконных актов.


Если вы оператор ИИ-системы

«Оператор» по закону — это тот, кто эксплуатирует систему. Не разработал, не продал — именно эксплуатирует. В крупной компании это часто ИТ-подразделение или владелец внутреннего продукта. И именно на вас ложится самая неудобная часть закона.

Вы обязаны:

— включить в документацию руководство по безопасной эксплуатации с явным запретом на манипуляции и эксплуатацию уязвимостей пользователей;

— тестировать систему на возможность незаконного использования;

— вести учёт инцидентов;

— назначить ответственных за безопасность;

незамедлительно приостановить эксплуатацию при угрозе вреда жизни, здоровью, имуществу или безопасности государства — и уведомить уполномоченный орган «в срок и порядке, определяемом Правительством».

Последний пункт — юридическая мина. Порядка уведомления ещё нет. Критерии «угрозы вреда» — не определены. Зато ответственность уже есть: закон прямо говорит, что разработчик, оператор и владелец несут ответственность, если они «заведомо знали или должны были знать» о возможности незаконного результата. Должны были знать — это не про умысел. Это про то, как суд оценит вашу осмотрительность постфактум.

Главный практический вывод для оператора: начните оформлять то, что у вас есть как «не документы», в реальные документы. Журнал инцидентов, матрица ответственных, процедура остановки, архитектурное описание ограничений модели. Не потому что уже штрафуют — а потому что в момент первого инцидента у вас будет органиченное время на реакцию, а не годы на подготовку.


Если вы CIO или CDTO

Для вас этот закон — это прежде всего изменение архитектурных ограничений. Не технических — регуляторных. И они сложнее.

Ракета-ИИ.png

Реестр доверенных моделей. Для государственных информационных систем и значимых объектов критической информационной инфраструктуры (КИИ) — только модели из реестра. Попасть в реестр: подтвердить соответствие требованиям безопасности (ФСТЭК + ФСБ), обеспечить обработку данных исключительно в РФ, подтвердить качество у отраслевого регулятора. Параллельно, у каждого. Порядок ещё разрабатывается.

Суверенные и национальные модели. Закон говорит прямо: поддерживать будут именно их. Определение: разработка в РФ, обучение в РФ, данные из РФ, разработчик — российское юрлицо с российским контролем более 50% голосов. Правительству дано право определять случаи их обязательного применения.

Что это значит для вашего ИТ-ландшафта: GPT-обёртка на Azure или open-source модель, дообученная командой с иностранными соучредителями, — это не суверенная модель. Завтра она может оказаться вне зоны допустимого для вашего отраслевого контура.

Архитектурное документирование. Разработчик обязан документировать «архитектуру, логику функционирования и ограничения модели в объёме, необходимом для её проверки». Проблема: у современной нейросети с миллиардами параметров нет «логики функционирования» в человекочитаемом виде. Что будет считаться «достаточным объёмом» для проверки — решит правоприменение. Читай: первые несколько судебных прецедентов.

Тройное согласование. Любой нормативный акт по ИИ: уполномоченный орган (Минцифры) + ФСТЭК + ФСБ. Скорость регуляторного производства равна скорости самого медленного и консервативного участника.

Главный практический вывод для CIO/CDTO: разделите свой ИИ-портфель на четыре класса прямо сейчас. (1) Внутренние помощники. (2) Внешние клиентские сервисы. (3) Системы, влияющие на юридически значимые решения. (4) Системы для ГИС/КИИ. Комплаенс-нагрузка растёт от первого к четвёртому экспоненциально. Для четвёртого класса закладывайте бюджет на регуляторную подготовку как отдельную статью — наравне с лицензиями и инфраструктурой.


Если вы CEO, владелец сервиса или разработчик модели

Закон вводит подробную матрицу обязанностей для трёх ролей — разработчик модели, владелец сервиса, оператор системы. Если вы стартап — вы, скорее всего, все три сразу.

Для разработчика модели:

  • документировать архитектуру и ограничения в объёме, достаточном для проверки регулятором;
  • исключить функциональные возможности, которые могут дискриминировать пользователей по их поведению или личным характеристикам;
  • проводить моделирование потенциальных рисков с учётом предполагаемого применения;
  • информировать о невозможности использования модели в запрещённых целях.

Для владельца сервиса:

  • явно запретить в правилах доступа использование сервиса в целях, противоречащих законодательству;
  • внедрить механизмы, ограничивающие создание незаконного контента;
  • информировать пользователей о взаимодействии с ИИ (кроме случаев, когда это очевидно из назначения сервиса);
  • если суточная аудитория — более 500 тыс. пользователей из РФ, выполнять требования для значимых информационных посредников (статья 10.1 ФЗ «Об информации»);
  • обеспечить маркировку синтезированного контента.

Главный практический вывод для владельца и разработчика: ваши документы — это ваша первая линия защиты. Пользовательское соглашение, правила доступа, лицензионный договор, предупреждение об ИИ, политика маркировки, описание ограничений модели — всё это должно быть не «юридической формальностью», а рабочим инструментом. Обновите их до вступления закона в силу, а не после первого иска.

Для всех: закон разрешает использовать охраняемые объекты для обучения моделей при условии правомерного получения и доведения до всеобщего сведения. Это хорошая новость. Плохая: ответственность за нарушение прав третьих лиц возлагается на пользователя и владельца сервиса — а не абстрактно «на закон».


Самая тихая революция в законе: ваши данные кормят ИИ — и это правильно

Пока публика обсуждала маркировку дипфейков, в пятой части тринадцатой статьи тихо проходит норма, которая переписывает основы российского авторского права. Предлагаемый закон об ИИ прямо говорит: использование охраняемых произведений для обучения ИИ не является нарушением авторских прав, если разработчик получил правомерный экземпляр или материал был доведён до всеобщего сведения. Проще говоря: если ваша статья, книга или фотография опубликованы в открытом доступе — их можно скармливать модели без вашего согласия и без вознаграждения.

И знаете что — это правильно, и Россия здесь оказалась смелее многих. В ЕС аналогичная норма (TDM-исключение в DSM Directive) обросла громоздким механизмом машиночитаемых запретов, которым пользуются крупные издатели, но не рядовые авторы. В США вопрос до сих пор решается в судах — OpenAI и другие компании участвуют в десятках исков. Россия выбрала японскую модель: чистое разрешение без бюрократии opt-out, потому что прогресс важнее охранительного рефлекса. Пока европейские регуляторы строят заборы вокруг данных, российские разработчики получают легальный доступ к огромному корпусу русскоязычного контента для обучения суверенных моделей. Это не недосмотр — это осознанный выбор в пользу конкурентоспособности.


ЕС регулирует то, что ИИ делает. Россия — то, кто его сделал

Когда в 2024 году вступил в силу EU AI Act, Европа выстроила четырёхуровневую пирамиду риска:

  1. Неприемлемый риск — запрещено полностью. Социальный скоринг граждан государством, манипулятивный ИИ, биометрическая идентификация в реальном времени в публичных местах. Не «нужна лицензия» — именно «запрещено».
  2. Высокий риск — разрешено при жёстком комплаенсе. Медицинские устройства, системы кредитного скоринга, управление критической инфраструктурой, системы подбора персонала, образовательные решения — всё, что влияет на права конкретного человека.
  3. Ограниченный риск — разрешено с обязательством прозрачности. Чат-боты обязаны сообщать, что они — ИИ.
  4. Минимальный риск — можно всё, добровольные кодексы.

Главный вопрос для регулятора — какой вред может нанести конкретная система конкретному человеку, независимо от того, кто и где её создал. Немецкий стартап и американский гигант подчиняются одним правилам, если их ИИ работает с европейцами.

Российский проект задаёт другую ось: не риск, а происхождение. Суверенная модель — разработана в России, гражданами России, на российских данных — получает приоритет господдержки и привилегированный доступ к госсектору вне зависимости от того, что именно она делает.

Это не означает, что российский подход «хуже». Это означает, что он решает другую задачу:

  • ЕС строит защиту граждан от последствий ИИ.
  • Россия строит защиту государства от зависимости от иностранного ИИ.

Обе задачи реальны. Но компании, работающие на обоих рынках, получают принципиально несовместимые требования: для ЕС важно что делает ваша система, для России — кто и где её создал.

Для CIO, работающего на обоих рынках, это означает неустранимый двойной комплаенс: то, что делает систему «доверенной» в России, не делает её compliant в ЕС — и наоборот. Две философии, два несовместимых чек-листа.


Регуляторный Уроборос

Есть парадокс, который стоит назвать прямо.

«Регуляторный Уроборос»: закон декларирует ускорение развития ИИ, но архитектурно воспроизводит логику всех предыдущих российских цифровых законов — от суверенного интернета до обязательной предустановки ПО. Компании с ресурсами для прохождения многоступенчатых согласований (реестр + ФСТЭК + ФСБ) получают конкурентное преимущество не через качество продукта, а через compliance-мощность.

Архитектура закона создаёт многоступенчатый фильтр: реестр доверенных моделей, требования суверенности, тройное согласование НПА, обязательное документирование, режим допуска к госсектору. Пройти этот фильтр смогут компании с ресурсами на долгие согласования, опытными юристами в сфере ИБ и связями с профильными ведомствами.

Это не конспирология и не критика ради критики. Это системный эффект: когда барьеры входа высоки, рынок концентрируется вокруг тех, кто их преодолел. История российского регулирования цифрового рынка — от обязательной предустановки ПО до реестров значимых ресурсов — знает этот сценарий хорошо.


ЭПР: как новый закон приземляется на уже занятую посадочную полосу

Пока Минцифры готовило новый важный рамочный закон об ИИ, Россия несколько лет уже работала в другой системе координат: экспериментальных правовых режимах (ЭПР). Это «регуляторные песочницы» — специальные правовые пузыри, в которых компании могут тестировать технологии, временно отступая от общих норм. К 2026 году в России насчитывается 15 действующих ЭПР, охватывающих беспилотный транспорт, телемедицину, дрон-доставку и другие сферы. Правовая база — ФЗ-258 от 2020 года «Об экспериментальных правовых режимах в сфере цифровых инноваций».

Пионером стала Москва: с 1 июля 2020 года здесь действует первый ЭПР в сфере ИИ, который изначально был запущен на пять лет как «пилот, а не вечная история». В его рамках компании могли работать с биометрией, медицинской диагностикой и системами видеонаблюдения по специальным, облегчённым правилам.

Теперь появляется рамочный закон. Возникает закономерный вопрос, который публичное обсуждение почти не затронуло: как они будут сосуществовать?

Уроборос-ИИ.png

Ответ из текста проекта: закон не упоминает ЭПР напрямую и не описывает явного механизма интеграции. Это рождает три практических коллизии.

Коллизия 1: реестр доверенных моделей vs. ЭПР-участники. Многие компании в ЭПР работают с зарубежными или open-source моделями — именно потому что «песочница» позволяла это делать в экспериментальном режиме. После вступления закона в силу им придётся либо включить свои решения в реестр доверенных моделей (с прохождением ФСТЭК + ФСБ), либо выйти из регулируемых контуров. Переходного механизма законопроект не описывает.

Коллизия 2: обязанности оператора vs. ЭПР-режим. В действующих ЭПР компании работали по согласованным с Правительством специальным правилам, которые могли не совпадать с новыми обязанностями операторов из Статьи 10. Что главнее — индивидуальное ЭПР-постановление или рамочный закон? Иерархия не прописана.

Коллизия 3: ЭПР как будущая «песочница» для нового закона. Логика ЭПР — сначала эксперимент, потом регулирование. Логика нового закона — сначала рамка, потом подзаконные акты. Возникает риск «двойного слоя неопределённости»: компания находится в ЭПР (специальный режим) и одновременно ждёт подзаконных актов к рамочному закону. Что действует — непонятно обеим сторонам.

Экспериментальные режимы задумывались как полигон, где компании учатся работать с ИИ без страха нарушить закон. Новый закон создаёт ситуацию, когда правила полигона и правила «взрослого» регулирования ещё не сшиты между собой. Кто окажется в этом швe — узнаем после первого спорного случая.

Что делать практически: если ваша компания участвует в действующем ЭПР или планирует подать заявку, необходимо уже сейчас провести gap-анализ: какие ваши ЭПР-практики потребуют пересмотра под требования рамочного закона — по реестру, документированию, безопасности и локализации данных. Период до 1 сентября 2027 года — это не «запас времени», а окно для синхронизации двух правовых режимов, которую никто за вас не проведёт.


Что делать прямо сейчас — у вас есть год

РольДействие #1Действие #2Действие #3
ПользовательСохраните эту статью — она пригодится, когда придёт время требовать своих правФиксируйте случаи, где ИИ принимает решения о вас без объясненийСледите за выходом подзаконных актов
ОператорСоставьте журнал инцидентов и процедуру остановки системыНазначьте ответственного за ИИ-безопасностьОпишите архитектуру и ограничения ваших систем
CIO/CDTOКлассифицируйте свои ИИ-системы по регуляторному рискуПроверьте vendor-стратегию на соответствие критериям суверенностиЗаложите бюджет на регуляторную подготовку
Владелец/разработчикПересоберите пользовательское соглашение с учётом требований законаВведите маркировку синтезированного контентаДокументируйте источники данных для обучения

Вместо заключения

Закон ещё не принят. Подзаконные акты ещё не написаны. Реестры ещё не работают. И именно поэтому сейчас — лучший момент для подготовки: пока правила игры можно ещё повлиять на формирование, а не только принимать как данность.

Участвуйте в общественном обсуждении на regulation.gov.ru. Оставляйте предложения. Читайте экспертные комментарии. ИИ будут регулировать так или иначе — вопрос только в том, кто сядет за стол, когда пишутся правила.

Снимок экрана 2026-04-11 в 16.27.44.png

Проект ФЗ «Об основах государственного регулирования сфер применения технологий искусственного интеллекта в РФ» опубликован 18 марта 2026 года на regulation.gov.ru. Публичное обсуждение — до 15 апреля 2026 года. Планируемая дата вступления в силу — 1 сентября 2027 года.


Источник:

1. Проект федерального закона «Об основах государственного регулирования сфер применения технологий искусственного интеллекта в Российской Федерации»

43

Комментарии (1)

Михаил Соломонов
Михаил Соломонов
11.04.2026, 18:00

Пока тезисы это не только гильотина, но и полное непонимание законодателями происходящего. Для человека. “Вы можете потребовать сервис без ИИ”. У банка, например. По скоринговой модели. Ага, конечно. Автор попал пулей в пулю и выбрал пример, по которому уже сейчас банк на любой вопрос не ответит - НИЧЕГО. При этом «живых» скорингов давно ни у кого нет. Интересно что поменяется. «Маркировка дипфейков и синтезированного контента» - на сегодня нет инструментов, которые бы позволяли на 100% убедить, что это не дипфейк или не генерация. И станет толко сложнее. Для эксплуатанта особенно приятно: «Тестировать систему на возможность незаконного использования». Интересно почему до сих пор владельцы автомобилей не наказываются за угоны их машин … логика такая же. Для CIO и CEO - технологическое отставание в мире. «Компании с ресурсами для прохождения многоступенчатых согласований (реестр + ФСТЭК + ФСБ) получают конкурентное преимущество не через качество продукта, а через compliance-мощность.» и да и нет. В ГИСах и гос корпов - так и будет. А остальные будут использовать собственные юр лица - прокси в других странах и внутренние положения.

Читайте также:

Главный утренний миф: как индустрия убедила нас есть, когда мы еще не проснулись

Убеждение в исключительной важности завтрака — это не медицинский факт, а результат агрессивного маркетинга и особенностей промышленной революции. Разбираемся, как современная наука развенчивает мифы об обязательном приеме пищи и почему ваше тело может иметь на этот счет свое мнение.

Пока вы ищете волшебную кнопку, время уходит или почему я написал книгу о мышлении, а не о технологиях

Дмитрий Гуреев — о том, почему у нас низкая производительность труда и почему её нельзя «докупить» инструментом: речь о том, что на самом деле создаёт результат — мыслительная работа человека

Исследование. От дефицита к эгоцентризму: как война за IT-таланты породила культуру «рынок должен мне» (1980–2026)

Исследование анализирует трансформацию глобального IT-рынка за последние 45 лет — от хронического дефицита кадров до формирования психологии «рынок мне должен». Текст объясняет, как гонка за бенефитами сменилась жесткой коррекцией и как внедрение ИИ к 2026 году окончательно меняет правила игры для работодателей и соискателей.

Добро пожаловать в реальный мир: почему нытьё айтишников в 2026 году — это симптом выздоровления рынка

Эпоха «золотых парашютов» и необоснованно высоких зарплат в IT официально завершена. Михаил Соломонов жестко объясняет, почему рынок перестал прощать разработчикам их инфантилизм и как выжить в индустрии, где бизнес-результат теперь важнее красиво написанного кода. Это честный взгляд на трансформацию сектора: от «золотой лихорадки» к нормальной экономике, где каждому специалисту придется заново доказывать свою ценность.

Самый известный неизвестный князь.

Многие привычные факты о жизни Александра Невского при детальном разборе оказываются поздними домыслами или красивыми легендами. В этой статье мы выясняем, почему нам неизвестен подлинный облик князя, что не так с описанием знаменитых битв в учебниках и о каких важных победах полководца незаслуженно забыли историки.