Интеллект под законом
Александр Леви — о регулировании ИИ
Обозреватель “Ъ FM” Александр Леви рассказывает о том, как в разных странах на законодательном уровне контролируется применение и распространение технологий искусственного интеллекта.
Фото: Евгений Павленко, Коммерсантъ
Фото: Евгений Павленко, Коммерсантъ
Италия первой в Европе ввела детализированный закон об искусственном интеллекте. Документ дополняет общеевропейский Акт об ИИ и описывает вопросы прозрачности, обязательного человеческого участия, ограничений и создания отдельных национальных надзорных органов. Например, теперь для доступа к ChatGPT несовершеннолетним требуется согласие родителей, а любые решения, влияющие на человека, не могут быть приняты исключительно нейросетью. Особо закон регулирует сферы, где инструменты ИИ применяются массово: здравоохранение, образование, юриспруденция или спорт. Кроме очевидной попытки запуска регулирования искусственного интеллекта, решение в какой-то мере даже предлагает этические стандарты.
Международная практика разнообразна, но обычно подобное приложение буквы закона к технологиям кристаллизуется в так называемых песочницах — специальных проектах для тестирования новых решений с государственным надзором и экспертной оценкой. Допустим, в Китае интернет-компании по требованию властей должны объяснить, с помощью каких алгоритмов формируются персональные рекомендации. Если, например, пользователя интересуют новости, то система обязана показывать причину выбора тех или иных публикаций. В Японии или Австралии стандарты ближе к добровольным: там ИИ внедряется после прохождении проверок, которые проводят независимые аудиторы или отраслевые организации. Недавно в США, в штате Колорадо, приняли закон, который предписывает разработчикам искусственного интеллекта в приложениях «высокого риска» раскрывать цели алгоритмов, их ограничения и происхождение. По сути, это работает как паспортизация софта. Обозримая польза такого подхода — упрощение будущих расследований, жалоб и судебных споров, связанных с ИИ.
В России наблюдается поэтапное регулирование. С 2020 года в Москве работает экспериментальная среда для тестирования ИИ-проектов. В этом году создан Центр развития ИИ при правительстве. 7,7 млрд руб. власти выделили на профильный федеральный проект «Искусственный интеллект». Национальную стратегию развития ИИ до 2030 года обновили, а Минцифры обсуждает обязательную маркировку контента, сгенерированного ИИ. Сами IT-вендоры тоже вводят некоторые ограничения. OpenAI закрыла доступ к ChatGPT пользователям младше 13 лет без родительского согласия. Google и Microsoft внедряют маркировку ИИ-контента, а также обучают пользователей отличать традиционные материалы от сгенерированных.