Прогрессу закон не писан
Белый дом определился с концепцией регулирования искусственного интеллекта
Проект закона о регулировании в РФ продуктов и отношений, в которых используются технологии искусственного интеллекта, концептуально готов и по итогам совещания у курирующего тему вице-премьера Дмитрия Григоренко 4 февраля переведен в фазу технико-юридического оформления, выяснил “Ъ”. До 11 февраля участники обсуждения должны направить в Минцифры фидбек по теме совещания, и до конца февраля ведомство должно будет внести проект в правительство. Регулирование ИИ в РФ за вычетом его применения в обороне, безопасности и госуправлении будет мягким: Белый дом не хочет отпугнуть бизнес от прогресса, хотя и потребует от компаний маркировки социально значимого ИИ-контента, а также сделает использование технологии отягчающим обстоятельством криминальной активности граждан и бизнеса.
Заместитель председателя правительства, глава аппарата правительства Дмитрий Григоренко и заместитель руководителя аппарата правительства Ольга Чепурина
Фото: Анатолий Жданов, Коммерсантъ
Заместитель председателя правительства, глава аппарата правительства Дмитрий Григоренко и заместитель руководителя аппарата правительства Ольга Чепурина
Фото: Анатолий Жданов, Коммерсантъ
Белый дом склоняется к введению в РФ «мягкого» регулирования ИИ, затрагивающего развитие не самой технологии, а только продуктов, произведенных с ее использованием. Причины такого подхода, напомним, обсуждались господином Григоренко с отраслью и ведомствами в конце 2025 года (см. “Ъ” от 18 декабря). Власти опасаются, что на довольно тонком рынке РФ (порядка 2% мирового) избыток госрегулирования может привести к утрате технологического лидерства (пока свобода развития технологии обеспечила РФ создание двух «относительно суверенных» больших языковых моделей — «Сбера» и «Яндекса», хотя вторая и обучена на открытых, в том числе зарубежных, данных, при этом у большинства стран мира своих моделей нет). Отметим, что год назад вице-премьер обещал отрасли, что регулирования ИИ в РФ не будет «года два». Прогноз с учетом сроков рассмотрения проекта Госдумой и подготовки «подзаконки», вероятно, сбудется.
Сейчас в РФ — один из наиболее либеральных в разработке и применении ИИ режимов в мире: даже в лидирующих в отрасли США уже есть требования к качеству и безопасности ИИ-решений, в Великобритании, КНР и ЕС действует национальный реестр ИИ, в КНР и ЕС (где регулирование наиболее жестко) введены и требования к расположению в стране центров обработки данных и юрлица—оператора модели, а в Европе — еще и требования к обучению ИИ на национальных датасетах. И такая жесткость уже вызывает отток специалистов и компаний в иные юрисдикции.
Именно поэтому российский закон об ИИ предполагается сделать рамочным: его цель — ввести базовые понятия для всего рынка (исключив разночтения, например, в ведомственном регулировании), но не ограничивать компании в развитии технологии.
Более жесткие требования будут вводиться в сферах, где отсутствие норм может привести к рискам для граждан и государства — например, в медицине, критической инфраструктуре, обороне, госбезопасности и т. д., а также в использовании ИИ в госуправлении. В этой сфере Белому дому важно зафиксировать идею о том, что решения публичной власти всегда принимают и отвечают за них чиновники. Для реализации дифференцированного подхода к регулированию ИИ в «критических» отраслях в них предлагается установить критерии «российскости» технологии: оператор модели должен быть зарегистрирован в РФ и иметь ЦОДы в стране, чтобы данные не пересекали границу; ИИ-модель — быть российским программным продуктом, числиться в реестре, обучаться на национальных датасетах и проходить проверки качества и безопасности. Для замыкания контроля Белый дом предлагает создать реестр российского и доверенного ИИ и ввести его обязательную сертификацию для госинформсистем и КИИ. Несколько более мягкие ограничения затронут «чувствительные» сферы: в здравоохранении, образовании, безопасности и биометрии применение иностранных ИИ-моделей предлагается «ограничить».
Для рынка же законопроект должен будет определить роли субъектов отрасли, разграничив разработчиков, операторов, пользователей и т. д., зоны ответственности и обязанности (так, разработчики будут обязаны обеспечить безопасное применение технологии и предотвращение вреда, непредвзятость такой обработки, получать согласие пользователей на обработку данных с помощью ИИ и учитывать право субъектов отказаться от нее).
Пользователям же будет вменена ответственность за распространение ИИ-контента: так, использование ИИ станет отягчающим обстоятельством при совершении преступлений и правонарушений — при вмешательстве в выборы, умышленной манипуляции, подрыве доверия к институтам власти, получении информации ограниченного доступа и распространении заведомо ложной информации, в том числе дипфейков.
В этом же контексте обсуждаются и случаи, когда операторы моделей будут обязаны информировать пользователей о взаимодействии с ИИ и маркировать ИИ-контент и механизмы контроля.
Отдельный блок затронет авторские права разработчиков и владельцев данных на ИИ-продукты, включая «принадлежность исключительных прав пользователей на произведения, созданные с ИИ при наличии творческого вклада»; обсуждаются вопросы интеллектуальной собственности и на уникальные запросы к моделям и упрощение доступа ИИ к защищенным авторским правом данным для обучения.
В «Альянсе в сфере ИИ» (объединяет «Сбер», «Яндекс», РФПИ, МТС, «Вымпелком» и др.) отметили, что проект закона пока находится в разработке и в объединении рассчитывают на продолжение диалога отрасли с государством для выработки решений, которые не создадут барьеров для развития ИИ-индустрии, сохранят доступность открытых решений и не приведут к отставанию страны в глобальной гонке. В частности, в регулировании ИИ важно разделить требования к технологиям и продуктам, подчеркивают в альянсе.