«Мы видим интерес компаний к этическому саморегулированию рынка»

Вице-премьер Дмитрий Чернышенко о новой этике ИИ

Принятие этических принципов позволяет снизить риск ошибки там, где пока еще нельзя внедрить строгие нормы, полагает вице-премьер Дмитрий Чернышенко. В интервью «Ъ-Review» он рассказал о позиции российского правительства по регулированию искусственного интеллекта (ИИ).

Дмитрий Чернышенко, председатель правления АО «Газпром-Медиа Холдинг»

Дмитрий Чернышенко, председатель правления АО «Газпром-Медиа Холдинг»

Фото: Петр Кассин, Коммерсантъ

Дмитрий Чернышенко, председатель правления АО «Газпром-Медиа Холдинг»

Фото: Петр Кассин, Коммерсантъ

— Кодекс этики ИИ пока носит исключительно добровольный характер, как дальше будет развиваться регулирование в этой области?

— Кодекс этики в сфере искусственного интеллекта устанавливает общие этические принципы и стандарты поведения для участников рынка. По сути, это инструмент «мягкого» регулирования, то есть зафиксированные в кодексе положения носят рекомендательный характер. Документ разрабатывался в соответствии с Национальной стратегией развития искусственного интеллекта до 2030 года, утвержденной президентом, и перед публикацией прошел широкое экспертное обсуждение с участием разработчиков, представителей бизнеса, власти и, конечно, общественных организаций.

Положения кодекса могут быть расширены или конкретизированы в отраслевых или локальных документах по этике с учетом развития технологий, особенностей решаемых задач, специфического контекста и среды, в которой применяются системы искусственного интеллекта.

При этом государство в рамках технологического развития уделяет большую роль нормативному регулированию. Например, для снятия административных барьеров, ускорения внедрения ИИ-технологий в экономику были приняты федеральные законы об экспериментальных правовых режимах в сфере цифровых инноваций в России (речь идет о ФЗ-331и ФЗ-258). Такие режимы предусматривают применение в течение определенного периода специального регулирования, упрощающего внедрение цифровых инноваций. Принципы экспериментальных правовых режимов содержат этические аспекты: обеспечение безопасности личности, общества и государства, равноправие претендентов, добровольное участие и ряд других принципов.

Кодекс этики в сфере искусственного интеллекта призван в том числе дополнить существующее нормативное регулирование. Будем продолжать эту работу. По итогам форума «Этика искусственного интеллекта: начало доверия» и конференции AI Journey к кодексу присоединилось 25 организаций: это «Ростелеком», НИУ ВШЭ, «Яндекс», фонд «Сколково», InfoWatch, «Сколтех», МФТИ, ЦИАН, МТС, Университет «Иннополис», РФПИ, «Сбер», VK, ИТМО, ИСП РАН, МГИМО, «Газпром нефть», «Росатом», Vision Labs, «Наносемантика», АНО «Диалог», ЦРТ, Cognitive Pilot, Центр ИИ МГТУ им. Н. Э. Баумана, Veb Ventures. До конца года мы рассчитываем, что кодекс подпишут около 100 компаний.

— Какие меры со стороны правительства будут приняты для масштабирования этических принципов на новые компании и научные центры?

— Мы видим интерес со стороны компаний, научно-образовательных организаций к этическому саморегулированию рынка. Это более гибкий для отрасли подход, который, по сути, является на сегодняшний день альтернативой более жесткому регулированию со стороны государства. Такой подход позволяет оперативно решать вопросы в таких сферах, как беспилотный транспорт, медицина, безопасность, которые имеют большое общественное значение и требуют быстрой реакции для внедрения той или иной технологии.

Со своей стороны правительство обеспечит организационные условия, чтобы этические принципы ИИ нашли практическое применение. Мы будем рекомендовать федеральным и региональным органам власти, научным организациям, госкомпаниям обеспечить соответствие всех проектов в сфере ИИ этическим принципам. В рамках ежегодного форума по этике искусственного интеллекта мы будем оценивать темпы внедрения этических принципов и прорабатывать инициативы по устранению возникающих барьеров.

— Может ли кодекс стать обязательным в перспективе, например, для отдельных отраслей и когда целесообразно обсуждать обязательный режим принципов этики?

— В следующие десять лет технологии искусственного интеллекта будут все больше внедряться во все сферы общественной и экономической жизни. Важно учитывать, что создаваемые ИИ-решения масштабируются, в связи с чем нельзя допустить этические ошибки на этапе разработки технологических решений, так как любая ошибка или просчет отражается на пользователях.

Для правильного понимания роли этики нужно учитывать, что она дополняет нормативное регулирование и техническую стандартизацию и не может их заменить. «Мягкое» этическое регулирование позволяет снизить риск ошибки там, где пока еще нельзя внедрить строгие нормы.

При этом на текущем этапе регулирование искусственного интеллекта должно способствовать развитию прикладных исследований, запуску новых продуктов, оказанию качественных услуг. Закрепление этических принципов ИИ в конкретных сферах и отраслях будет продолжаться в соответствии с принятым кодексом ИИ. Про какие-либо ограничения или обязательный характер документов мы не говорим — по крайней мере пока не увидим прямые риски нарушения этических положений.

— Где применение ИИ будет происходить наиболее активно с учетом того, что большинство людей пока не готово делегировать ИИ принятие решений в ключевых сферах, таких как медицина и образование?

— Российские организации уже несколько лет подряд активно разрабатывают и внедряют решения на основе искусственного интеллекта, лидерами здесь являются участники Альянса в сфере искусственного интеллекта: «Яндекс», МТС, «Сбер», VK, «Газпром нефть», РФПИ. На сегодняшний день в стране больше 800 решений по разным направлениям: от малого бизнеса до систем государственного управления.

Наиболее активное внедрение технологий искусственного интеллекта видится в сфере здравоохранения, образования, ритейла, финансовой деятельности, общественной безопасности, промышленности, беспилотного транспорта и энергетики. При этом, безусловно, внедрение технологий искусственного интеллекта имеет огромный потенциал и в социальной сфере, где цена потенциальной ошибки гораздо выше, чем в любой другой отрасли, поэтому здесь более серьезное нормативное регулирование и, соответственно, более длительный процесс имплементации решений на основе ИИ.

— Для конкретных отраслей потребуется разработка детальных определений и правил, в каких сферах такое практическое регулирование уже необходимо?

— Российское правительство уже проводит активную работу по разработке нормативной базы на федеральном уровне. Например, в прошлом году была принята концепция правового регулирования ИИ и робототехники до 2024 года. Она включает ряд положений по регулированию применения технологий ИИ и робототехники по отраслевым направлениям: медицина, государственное и муниципальное управление, промышленность, транспорт, градостроительство, финансовая сфера и космическая деятельность.

В конце 2020 года была принята совместно с Росстандартом программа по стандартизации для развития технологий искусственного интеллекта в различных отраслях экономики. Документ предусматривает разработку порядка 200 стандартов по различным направлениям, до конца этого года планируется подготовка 21 стандарта.

В этом году началась разработка общих регулирующих документов, а также нормативных актов по двум направлениям: здравоохранение и транспорт.

— Как регулирование в области ИИ повлияет на конкуренцию? Считается, что от внедрения ИИ выигрывают в первую очередь крупные интернет-компании, которые способны собирать большие массивы данных.

— Главная цель федерального проекта «Искусственный интеллект» национальной программы «Цифровая экономика Российской Федерации» — стимулирование рынка, развитие сообществ и наращивание новых профессиональных компетенций. Для нас важно обеспечивать синергетический эффект от совместной работы крупного и малого бизнеса над исследованиями, разработкой и внедрением ИИ-решений.

Федпроектом предусматривается комплексная поддержка и крупных корпораций, и стартапов. Например, до конца этого года фонд «Сколково» поддержит 7 пилотных проектов апробации ИИ-решений в отраслях и 240 ИИ-стартапов, 8 разработчиков открытых библиотек получат поддержку от Фонда содействия инновациям.

Важно отметить, что в России уже есть успешные отечественные стартапы, например Vision Labs, «Вокорд», NTechLabs, iPavlov, которые признаны глобальным технологическим сообществом и доказали эффективность разрабатываемых продуктов на российском и зарубежных рынках.

— У российского населения в среднем более высокий уровень доверия к технологиям и ИИ, чем в целом по миру, с чем это может быть связано?

— Действительно, на сегодняшний день в России уровень доверия к искусственному интеллекту достаточно высок — порядка 48%, по данным ВЦИОМа. Для этого есть ряд причин. Во-первых, граждане России уже видят первые результаты использования искусственного интеллекта, которые существенно упрощают жизнь. Во-вторых, искусственный интеллект является беспристрастным и в отдельных сферах исключает человеческий фактор, что приводит к более справедливым решениям и повышает доверие населения. В-третьих, внедрение технологий ИИ в России происходит постепенно, чтобы компании успели наработать критическую массу инцидентов и на их основе выработать действенные меры реагирования. В западных странах стремительный рост ИИ-решений способствовал возникновению нештатных ситуаций — например, когда интеллектуальная навигационная система прокладывала маршрут и заводила автомобиль в зону лесных пожаров. Такие случаи, безусловно, способствовали снижению уровня доверия людей к технологии за рубежом.

Конечно, всегда будут люди, скептически настроенные к искусственному интеллекту, и здесь задача государства — сделать так, чтобы у граждан всегда была возможность выбора без навязываемых продуктов и услуг. При этом правительство страны продолжит комплексную работу над тем, чтобы уровень доверия населения к ИИ возрастал.

Ксения Ильинская

Картина дня

Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...