Нейрокость в горле
В Думе обсудили будущие попытки отрегулировать искусственный интеллект
Госдума рано или поздно отрегулирует использование искусственного интеллекта (ИИ) в политических процессах. Такие планы были высказаны 1 декабря на круглом столе фракции «Справедливая Россия» (СР). Степень жесткости будущих норм депутатам неясна, но в том, что они нужны, большинство из них, похоже, уверены. А вот электоральные юристы в оценках необходимости регулирования новой технологии пока расходятся.
Фото: Дмитрий Духанин, Коммерсантъ
Фото: Дмитрий Духанин, Коммерсантъ
На рассмотрение Госдумы поступило два законопроекта на тему ИИ, напомнил депутат Дмитрий Гусев (СР). Поправки, разрешающие маркированную ИИ-агитацию, внесла группа депутатов во главе с Ярославом Ниловым (1 декабря в правительстве дали на эту инициативу отрицательный отзыв). А новеллу об обязательной маркировке любого видеоконтента, созданного при помощи нейросетей, внес сам господин Гусев при поддержке коллег из других фракций. Параллельно «дорожную карту» по регулированию ИИ готовит профильная комиссия во главе с вице-спикером Александром Бабаковым (СР). Вероятнее всего, допустил Дмитрий Гусев, будет принята рамочная норма, которая определит понятия и категории, а одновременно будут внесены поправки в отраслевые законы.
Сейчас политических игроков в использовании ИИ ограничивают только уголовное право и «внутренние убеждения», пояснил Ярослав Нилов.
Но практика использования «черных технологий» в предыдущие годы наглядно доказывает, что так продолжаться не может, уверен депутат. «Надо действовать на опережение и понимать, с какими вызовами нам придется столкнуться уже в следующем году на выборах в Госдуму»,— говорит он.
Член Центризбиркома Антон Лопатин согласился, что ИИ — это уже данность, но подчеркнул, что технология может рассматриваться не только в негативной логике (вроде вмешательства в выборы), но и с «позитивной точки зрения». Так, сам ЦИК применяет ИИ с 2019 года — в частности, при проверке подписных листов кандидатов. «Мы научили нейросети определять достоверность (подписей.— “Ъ”) в 95% случаев»,— похвалился господин Лопатин. Решений программа, разумеется, не принимает, а лишь сигнализирует о найденных аномалиях, после чего с ними разбираются уже живые специалисты, уточнил член ЦИКа.
Электоральные юристы в оценках разошлись.
По мнению Гарегина Митина, необходимость регулировать использование ИИ на выборах есть только в тех случаях, когда это «затрагивает права и интересы других участников избирательной кампании либо угрожает основам конституционного строя, нравственности, здоровью, правам и законным интересам граждан, обороне страны и безопасности государства». А его коллега Максим Сикач вообще уверен, что в контексте политики регулирование ИИ по большому счету бесполезно. Кто и как будет определять, сгенерировано ли видео, неясно, к тому же потенциальное регулирование, вероятно, не успеет за развитием технологии, отметил юрист. То есть ситуация скорее требует дерегулирования и разрешения на использование в электоральных процессах агитматериалов, созданных при помощи ИИ, считает господин Сикач. «Мы не должны быть правовыми луддитами, которые с гром-палками бегут и пытаются все зарегулировать»,— отмечает он.
«Не догоним технологию? Догоним и перегоним — где наша не пропадала!» — сыронизировал в ответ электоральный юрист Олег Захаров. По его мнению, регулирование ИИ — единственный продуктивный вариант развития событий, в том числе с точки зрения равенства условий на рынке труда по отношению к тем, «кто работает своей головой и своими руками». Формирование же нормативной базы следует поручить отдельной структуре типа «цифрового омбудсмена», считает эксперт.