Регулировать нельзя развивать

Куда движется законодательство об искусственном интеллекте и что выбирать России

Искусственный интеллект перестал быть технологией будущего и все больше интегрируется в жизнь человека, в том числе и в России. Доля пользователей ИИ выросла с 27,3% до 39,2%, а доля регулярных пользователей увеличилась более чем в два раза — с 7,7% до 17%. Но масштаб применения технологии давно вышел за рамки генерации картинок и текста и дошел до медицины, образования, промышленности. По данным McKinsey, State of AI Report 2025, 78% организаций в мире уже используют ИИ хотя бы в одной бизнес-функции.

Руководитель образовательной программы «Искусственный интеллект и моделирование когнитивных процессов в проектировании и разработке информационных систем» НИЯУ МИФИ Роман Душкин

Руководитель образовательной программы «Искусственный интеллект и моделирование когнитивных процессов в проектировании и разработке информационных систем» НИЯУ МИФИ Роман Душкин

Фото: Кристина Кормилицына / Фотохост-агентство РИА Новости

Руководитель образовательной программы «Искусственный интеллект и моделирование когнитивных процессов в проектировании и разработке информационных систем» НИЯУ МИФИ Роман Душкин

Фото: Кристина Кормилицына / Фотохост-агентство РИА Новости

Продолжающийся рост популярности ИИ закономерно усиливает запрос на регулирование отрасли со стороны государств. Так, в России в ближайшее время появятся собственные правовые нормы регулирования нейросетей. Проект закона готов и находится на оформлении и будет внесен на рассмотрение в правительство до конца февраля.

Регулирование новых отраслей — это естественный процесс. Любая прогрессивная технология, способная влиять на человечество, со временем обретает нормативные рамки. Когда-то схожие процессы происходили с электричеством, интернетом и автомобилями: по мере того как технологии становились массовыми, возникала необходимость в понятных стандартах и правилах, которые обеспечивали прозрачность их развития и применения.

Однако современный искусственный интеллект развивается значительно быстрее технологий, которые были ранее. Поэтому то, что вчера было экспериментом, сегодня уже встраивается в бизнес-процессы и уже завтра может начать определять стандарты развития для целых отраслей. В такой динамике превентивные нормативные акты могут устаревать еще до вступления в силу, но при этом ограничивать возможности дальнейшего развития технологии. Поэтому в большинстве стран избегают создания всеобъемлющих, универсальных и строгих законов об ИИ. Мир ищет баланс — между необходимостью регулирования и сохранением темпов развития. Разбираемся, какой из подходов наиболее перспективен.

Международный опыт

Многие международные организации начали с выработки этических принципов, которые стали отправной точкой для формирования национальных стратегий развития ИИ. В 2021 году ЮНЕСКО представила «Рекомендации по этике ИИ», закрепив принципы прозрачности, справедливости, безопасности и недопущения дискриминации людей со стороны технологии. 193 государства поддержали документ, и он стал ориентиром для последующего регулирования. Аналогично ОЭСР разработала набор принципов для использования ИИ и создала открытую базу практик, которую используют как государства, так и компании. Эти документы не являются обязательными к исполнению, но формируют общее понимание допустимых действий в разработке технологии и способствуют координации между странами.

Ряд стран, в которых разрабатываются передовые модели ИИ, фокусируются не на регулировании самой технологии, а на управлении ее применения. Ориентиром выступает практический опыт применения технологии, который только начинает накапливаться.

В США для использования ИИ в медицине разрабатывают отдельные протоколы для внедрения технологии в диагностические процессы, требуя клинической валидации моделей перед использованием. В уголовном праве внимание уделяется прозрачности алгоритмов оценки риска повторного правонарушения — из-за опасений в отношении возможной предвзятости.

В Китае в регулятивных нормах подчеркивается стремление не только обеспечить безопасность технологии, но и создать условия для развития ИИ-отрасли. Поэтому требования в первую очередь касаются публичных сервисов: так, государство обязало открытые генеративные сервисы маркировать создаваемый контент. При этом корпоративные ИИ-продукты регулируются более гибко — это дает бизнесу больше свободы развития технологии. Власти Китая также усиливают поддержку отрасли за счет дополнительных инвестиций в нее — в марте 2025 года было анонсировано создание государственного фонда для укрепления индустрии высокотехнологичных решений, включая ИИ.

Свою роль играют и представители отрасли, разрабатывающие и интегрирующие искусственный интеллект. Крупные технологические компании, создающие нейросети, разрабатывают собственные кодексы этики, объединяются в альянсы и прорабатывают меры, предназначенные для безопасного развития и применения технологии. Например, в США семь крупнейших ИТ-компаний — включая OpenAI, Microsoft, Google и Meta (компания признана экстремистской и запрещена в России) — договорились в 2023 году о добровольной маркировке ИИ-контента.

Так, сочетание добровольных инициатив индустрии, поддержка отрасли от государства и разработка норм с учетом практического опыта применения технологии демонстрирует высокую эффективность в США и Китае, где придерживаются подобного подхода. Там появляются передовые модели ИИ: ChatGPT от OpenAI, Claude от Anthropic, Gemini от Google, LLaMA от Meta (компания признана экстремистской и запрещена в России).

Последствия жестких рамок

Недавнее исследование «Технологий доверия» и АНО «Цифровая экономика»  показало, что в мире отмечается тенденция на смягчение и пересмотр регулирования генеративного искусственного интеллекта. По мнению экспертов, слишком жесткие нормативные требования «могут замедлить развитие технологий и фактически закрепить технологическое отставание на годы вперед», что частично подтверждает зарубежный опыт правоприменения.

Европейский союз стал одним из первых регионов, взявшихся за системное регулирование ИИ. В 2021 году Еврокомиссия представила AI Act — масштабный законопроект, который классифицирует ИИ-системы по уровням риска и устанавливает строгие требования для их использования. Однако еще с начала обсуждения документ вызвал волну критики.

Уже в 2023 году более 150 крупнейших компаний, включая Meta (компания признана экстремистской и запрещена в России), Siemens, ARM, Renault, подписали открытое письмо, в котором предупредили: чрезмерное регулирование угрожает конкурентоспособности Европы. Компании опасались высокой стоимости соблюдения новых требований, ограничений для внедрения ИИ и замедления инноваций.

Реальные последствия от принятия законопроекта не заставили себя ждать: крупнейшие технологические компании начали пересматривать свои планы по работе на европейском рынке. Meta (компания признана экстремистской и запрещена в России) ограничила доступ к своей мультимодальной модели ИИ и сообщила, что не планирует предоставлять свои новые языковые модели в ЕС. На аналогичные шаги пошли и в Apple, ограничив функции Apple Intelligence, и в Google, приостановив внедрение технологии AI Overviews.

Местные разработчики также оказались в сложной ситуации. Ставка на этические приоритеты усложнила процесс разработки и сертификации новых технологий. В результате европейские компании так и не смогли создать необходимую инфраструктуру для развития ИИ, что фактически привело к частичному параличу отрасли в регионе и наращиванию отставания от зарубежных коллег.

На фоне растущего отставания от США и Китая в 2025 году ЕС представил AI Continent Action Plan — стратегию, направленную на развитие области ИИ в Европе,— в нее вошел целый ряд мер, в том числе развитие инфраструктуры дата-центров для обучения нейросетей, программы привлечения специалистов из стран за пределами ЕС и запуск службы поддержки бизнеса для помощи в соблюдении AI Act.

Однако наверстать упущенное будет непросто — несмотря на амбициозные планы, последствия прежнего жесткого регулирования ощущаются: стартап-экосистема ослабла, часть крупных компаний заморозила вывод своих ИИ-продуктов в регионе, а технологический суверенитет оказался под вопросом. В этих условиях даже активная корректировка курса не гарантирует быстрого восстановления конкурентоспособности.

Какой урок извлекает Россия

Любым технологиям, напрямую влияющими на повседневную жизнь человека, необходимы собственные регламенты — как транспорту, мобильной связи, строительству, так и искусственному интеллекту. В России, где рынок ИИ находится в активной фазе развития, регулятор понимает: правила должны касаться именно применения самих технологий. Сама разработка этих технологий не должна быть заблокирована излишними нормативными ограничениями: избыточные меры приводят к снижению темпов роста отрасли и потере конкурентных преимуществ. В условиях глобальной борьбы за технологическое лидерство выбор гибких нормативных условий наиболее эффективен.

Поэтому правительство склоняется к введению «мягкого» регулирования ИИ в России. Точечный подход позволяет нивелировать реальные риски применения технологии по мере их возникновения и сохранить пространство для инноваций, при этом не создавая избыточных барьеров для роста рынка. Таким образом возможно сохранить благоприятные условия для развития национальной экосистемы генеративного ИИ в условиях тонкого российского рынка (в пределах 2% от мирового).

В России уже существует и эффективно действует важный механизм отраслевого саморегулирования — техническая стандартизация. В рамках технического комитета №164 при Росстандарте разработчики ИИ-систем формируют национальные стандарты, охватывающие здравоохранение, транспорт, критическую инфраструктуру и другие ключевые сферы, где может применяться технология. Эти стандарты проходят длительный профессиональный цикл разработки и содержат выполнимые на текущем технологическом уровне развития требования. Они обеспечивают качество и безопасность внедрения и при этом не приводят к замедлению развития отрасли, как в ЕС. Затем государство верифицирует и утверждает финальный документ, созданный экспертным сообществом. Система уже сильно развита и интегрирована в международную практику, поэтому приоритетом должно стать ее последовательное развитие, а не создание новых мер.

При этом российские компании уже продемонстрировали способность к ответственной разработке технологий ИИ. Еще в 2021 году крупнейшие технологические компании, в число которых вошли «Сбер», «Яндекс», VK, МТС и «Газпром», подписали Кодекс этики ИИ, закрепив принципы безопасности, прозрачности и уважения к правам человека при разработке искусственного интеллекта. Сегодня отечественные разработчики не только соблюдают их, но и внедряют внутренние регламенты, создают системы маркировки ИИ-контента и открывают информацию о работе моделей, а Кодекс этики ИИ подписали уже более 900 организаций.

Подобное саморегулирование отличается большей гибкостью по сравнению с регулированием сверху: оно лучше соблюдается, поскольку адаптировано к применению самими участниками отрасли и регулярно обновляется в соответствии с актуальными возможностями технологии.

Благодаря такому подходу, а также сильным инженерным и научным школам в России уже добились заметных результатов в развитии ИИ. Нейросети начали использовать в здравоохранении, например, для обработки документов клинических исследований, анализа радиологических изображений, ведения медицинских карт и постановки диагнозов — подобные решения успешно применяют в московских больницах. В отечественной промышленности ИИ уже помогает оптимизировать производственные процессы и снижать затраты и расход сырья крупнейшим предприятиям, а в сельском хозяйстве технология уже применяется для автономного управления техникой, прогнозирования урожайности, автоматического мониторинга состояния полей. ИИ также внедрили и применили для поддержки экологии на Дальнем Востоке — там нейросети помогают очищать берега, обеспечивая более эффективный мониторинг загрязнений.

Таким образом, этические ориентиры, ответственность индустрии, участие профессиональных сообществ в создании отраслевых стандартов и готовность государства адаптировать нормы под реальные потребности — вот ключевые факторы, влияющие на потенциал страны в развитии ИИ. И те страны, которые вовремя сделали или сделают ставку на гибкость и мягкое регулирование, получат технологическое преимущество и устойчивую основу для роста экономики в новой цифровой эпохе

Руководитель образовательной программы «Искусственный интеллект и моделирование когнитивных процессов в проектировании и разработке информационных систем» НИЯУ МИФИ Роман Душкин