Интеллекту расчертили правовое поле

Эксперты проанализировали первый опыт госрегулирования ИИ

2023 год в сфере искусственного интеллекта (ИИ) стал не только периодом всплеска интереса к GPT, но и годом первого опыта законодательного регулирования этой технологии. В Институте статистических исследований и экономики знаний (ИСИЭЗ) НИУ ВШЭ сравнили правовые акты, принятые тремя крупнейшими игроками на этом рынке: США, ЕС и Китаем. Из проведенного анализа можно сделать вывод, что Европа делает упор на градацию рисков ИИ-систем, США — на стандарты и безопасность данных, Китай — на строгие государственнические правила в отношении генерируемого ИИ контента.

Фото: Александр Миридонов, Коммерсантъ

Фото: Александр Миридонов, Коммерсантъ

Эксперты ИСИЭЗ сопоставили первые законодательные акты в сфере искусственного интеллекта, уже принятые или находящиеся в высокой степени согласования. В Евросоюзе это закон об ИИ (AI Act), в Китае — «Временные меры по управлению генеративными системами искусственного интеллекта», в США — «Указ о безопасном, надежном и заслуживающем доверия ИИ».

Положения европейского акта были согласованы совсем недавно, в декабре 2023 года, Европарламентом и Евросоветом, теперь на него требуется получить одобрение государств—членов ЕС. Ожидается, что закон вступит в силу не ранее 2025 года. Он основан на градации систем ИИ по уровню риска. Большинство вводимых регуляторных мер затронут высокорисковые системы — их разработчики должны будут регистрировать свои продукты в общеевропейской базе данных еще до вывода на рынок или ввода в эксплуатацию. Разработчики систем ограниченного риска должны обеспечить прозрачность процессов, для систем же с низким или минимальным риском ограничений не предусмотрено. При этом европейский законопроект прямо запрещает «вредоносные ИИ-практики». За злоупотребления предусмотрены большие штрафы: €35 млн, или 7% годового оборота компании, за нарушение запрета на применение ИИ; €15 млн, или 3% оборота,— за нарушение обязательств по закону об ИИ; €7,5 млн, или 1,5%,— за предоставление регуляторам недостоверной информации. Особые правила вводятся для так называемых фундаментальных моделей, способных создавать видео, тексты, изображения и программный код. К этой группе относятся системы генеративного ИИ (такие как ChatGPT): их разработчики будут обязаны сообщить, какие объекты авторского права использовались для обучения модели.

Американский документ, подписанный президентом США Джо Байденом в октябре 2023 года, схож с европейским в части требований к разработчикам систем ИИ по прозрачности процессов (см. “Ъ” от 31 октября 2023 года). Компании должны предоставлять правительству данные о результатах тестирования безопасности и другой критически важной информации еще до выхода разработки на рынок. Для повышения уровня безопасности Национальный институт стандартов и технологий разработает соответствующие стандарты, а Министерство торговли США — руководство по маркировке контента, созданного при помощи ИИ (во избежание распространения контента, сгенерированного для дезинформации). Особое внимание в указе уделено повышению безопасности персональных данных.

Китайские «Временные меры», принятые летом 2023 года, предусматривают ответственность ИИ-разработчиков за весь генерируемый контент. Введен запрет на контент, подрывающий социалистические ценности или подстрекающий к свержению государственного строя. Разработчик отвечает за защиту персональных данных пользователей и прав на интеллектуальную собственность. Правилами также устанавливается необходимость предотвращать чрезмерную зависимость несовершеннолетних от использования генеративного ИИ.

Что касается России, то в ней нормативная база для регулирования ИИ только готовится.

В «Единой России» пишут законопроект, который должен определить ответственность разработчиков и исключить случаи использования ИИ мошенниками (см. “Ъ” от 14 апреля 2023 года). В декабре 2023 года правительство внесло в Госдуму законопроект, который обяжет разработчиков ИИ, действующих в экспериментальном правовом режиме, страховать ответственность за возможное причинение вреда жизни, здоровью или имуществу при применении этой технологии (см. “Ъ” от 16 декабря 2023 года). России еще предстоит выбрать, каким должно быть регулирование технологии: стимулирующим ее развитие или предотвращающим риски. В ИСИЭЗ отмечают, что «достигнуть лидерства удастся тем странам, которые смогут в том числе на законодательном уровне найти оптимальный баланс между поддержкой ИИ и его ограничением».

Венера Петрова, Вадим Вислогузов

Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...