Этика для бизнеса

Как участники рынка оценивают появление национального кодекса

Появление в России базовых этических принципов искусственного интеллекта (ИИ) может стать отправной точкой для формирования четких и прозрачных правил в отраслях, пришли к выводу участники форума «Этика искусственного интеллекта: начало доверия». По их мнению, проблем с масштабированием этичного поведения в сфере ИИ возникнуть не должно — этичность вполне соответствует тренду на устойчивое и ответственное ведение бизнеса и может стать конкурентным преимуществом компаний. Наиболее острыми пока остаются проблемы качества и доступности данных, а также недостатка квалифицированных кадров в отрасли и современных образовательных программ.

Для бизнеса быть этичным выгодно и с коммерческой точки зрения — это повышает доверие пользователей

Для бизнеса быть этичным выгодно и с коммерческой точки зрения — это повышает доверие пользователей

Фото: Getty Images

Для бизнеса быть этичным выгодно и с коммерческой точки зрения — это повышает доверие пользователей

Фото: Getty Images

Принятие единого кодекса этики искусственного интеллекта признано серьезным событием для отрасли — ожидается, что документ поможет выстроить инфраструктуру доверия граждан к новым технологиям и формализовать правила игры на этом рынке. До сих пор крупные российские компании внедряли собственные этические принципы разработки и применения технологий ИИ — кодекс должен эту практику масштабировать. Так, по оценкам вице-премьера Дмитрия Чернышенко, до конца года документ должны подписать более 100 организаций из государственного, коммерческого и научного секторов. «Правительство приложит все необходимые организационные усилия, чтобы этические принципы ИИ нашли практическую реализацию в разных сферах: в госуправлении, здравоохранении, на транспорте, где благополучие людей в приоритете»,— сказал Дмитрий Чернышенко.

По мнению участников рынка, принятие кодекса должно стать нормой для компаний, которые работают в этой сфере. При этом эксперты указывают, что механизмы стимулирования (например, меры господдержки «этичных компаний») и тем более принуждения к этичному поведению пока избыточны. «Подписание кодекса этики — некая декларация, в хорошем смысле рекламная кампания. Компании, которые подписывали, своим примером обозначили, что это важно. Пусть это как-то поживет в реальной сфере… Принуждение убьет все хорошее в этом начинании»,— отмечает директор по анализу данных и моделированию в ПАО «Газпром нефть» Анджей Аршавский.

Проблем с расширением круга подписантов кодекса возникнуть не должно. Идея этичного искусственного интеллекта привлекательна для компаний сама по себе, поскольку может стать конкурентным преимуществом на рынке, считают участники рынка. По мнению директора по развитию технологий ИИ «Яндекса» Александра Крайнова, для бизнеса быть этичным довольно выгодно с коммерческой точки зрения. «Самое ценное, что есть у бизнеса, его капитал,— это доверие пользователей. Кодекс этики — способ это доверие поднять»,— поясняет он. С ним согласен и вице-президент по искусственному интеллекту, руководитель Центра искусственного интеллекта ПАО МТС Александр Ханин. «Подписание кодекса этики — дополнительный плюс, который подтверждает серьезность намерений и публичную коллективную ответственность»,— отмечает эксперт.

Мягкая регуляторика

Кодекс этики воспринимается экспертами как гибкий документ, который продолжит развиваться параллельно с расширением применения технологии. «Чем больше компаний подпишут и начнут применять кодекс, тем увереннее мы сможем говорить о складывании на рынке обычаев делового оборота — как известно, это один из источников права. Таким образом, через массовость подключения мы выстраиваем мостик между этическими правилами и правом»,— считает вице-президент по взаимодействию с органами государственной власти и связям с общественностью ПАО МТС Руслан Ибрагимов.

В правительстве с позицией рынка в целом соглашаются и пока предлагают развивать регулирование искусственного интеллекта в экспериментальном режиме. Напомним, что с 2021 года в РФ действует закон об экспериментальных правовых режимах (ЭПР) — «регуляторных песочницах», позволяющих упростить внедрение инноваций на отдельных территориях за счет выведения их из-под общего регулирования. «В рамках ЭПР государство пытается гибко настроить регулирование, посмотреть, как будут развиваться технологии, чтобы на практике получить взвешенную оценку рисков и возможностей развития технологий»,— указывает директор департамента стратегического развития и инноваций Минэкономики Рустам Тихонов. По словам чиновника, ландшафт будущего регулирования будет варьироваться в зависимости от сферы применения технологий — речь идет о разнице в уровне риска, например при запуске беспилотного карьерного самосвала или беспилотного пассажирского самолета.

Отдельный подход к регулированию уже обещан сфере медицины и правосудия. Так, в медицине предстоит найти баланс между применением классических методов, основанных на квалификации медицинского работника, и информационных технологий на базе ИИ, помогающих работнику в принятии решений и оптимизирующих рутинные задачи. Директор по взаимодействию с органами государственной власти ABBYY Ольга Минаева считает необходимым в таких чувствительных отраслях, как медицина, внедрение обязательных требований к этичности разработчиков — речь идет, например, о директивах госкомпаниям работать только с теми разработчиками ИИ, которые приняли кодекс этики и работают по нему. Предполагается, что это позволит снизить социальную напряженность и повысить качество обработки данных. В сфере правосудия также предлагается четко разграничить роли человека и искусственного интеллекта, делегировав последнему только рутинные задачи. Такой подход объясняется высокими рисками принятия дискриминирующих решений (см. подробнее материал на этой странице). Впрочем, в перспективе ИИ сможет применяться и для решения юридических споров между субъектами, при этом механизмы в госсекторе и бизнесе будут различаться, пришли к выводу участники форума.

Свобода данных

Российские власти уделяют пристальное внимание развитию искусственного интеллекта — в частности, для стимулирования развития технологий в РФ утверждены Национальная стратегия развития ИИ до 2030 года, а в прошлом году — концепция развития регулирования этой сферы. При этом, как указывают эксперты, государству предстоит еще масштабная работа по снятию барьеров в этой отрасли. Так, по-прежнему остро стоит проблема недостатка данных для машинного обучения, указывают участники форума. Для решения проблемы потребуются формализация обезличенных больших данных, создание безопасного доступа к ним разработчиков, снятие ограничений на оборот и их использование. «Без качественных дата-сетов у нас не будет хороших результативных программ на базе ИИ»,— считает президент Ассоциации больших данных Анна Серебряникова.

Кроме того, важным направлением работы правительства и экспертного сообщества должны стать мероприятия по популяризации технологий ИИ для формирования среды доверия. Кодекс этики и предусмотренные документом механизмы (например, появление уполномоченных в сфере ИИ) в отдельности эту проблему не решают. По мнению Рустама Тихонова, до потенциальных пользователей систем ИИ необходимо доводить информацию, которая позволит лучше понимать, на что в реальности способен искусственный интеллект, где границы применимости технологий и основные принципы их функционирования. В частности, Минэкономики совместно с Минпросвещения занимается обновлением школьных программ: в них появятся тематические модули, а совместно с Минобрнауки — обновлением бакалаврских и магистерских программ.

Заместитель директора центра «Искусственный интеллект» МГТУ имени Баумана Александр Чесалов отмечает, что искусственный интеллект постоянно трансформирует сферу образования, при этом современных программ подготовки специалистов в этой сфере недостаточно. В результате на рынке наблюдается кадровый голод специалистов в сфере ИИ, тогда как кадры — основа создания отечественных технологий ИИ. Ректор научно-технологического университета «Сириус» Максим Федоров обращает внимание, что компании сейчас не в состоянии тратить несколько лет на доучивание выпускников, поскольку в ИИ каждые полгода меняются ключевые технологии. «Мы должны готовить выпускников, чтобы они в первый день устройства на работу были готовы не только что-то разрабатывать, но и понимать, на каком технологическом и нормативном ландшафте эти технологии будут развиваться»,— поясняет он. При этом важно, чтобы студенты понимали все нюансы, связанные с этикой внедрения, и гуманитарно-социальный аспект. С ним соглашается и проректор—начальник управления по проектной и научно-исследовательской деятельности «Иннополиса» Искандер Бариев, отмечая, что разработчики алгоритмов ИИ не всегда готовы принимать во внимание этические вопросы, связанные с применением технологий. «Надеемся, что тема этики войдет в образовательные программы по искусственному интеллекту. Если мы студентов этому учить не будем, проблемы начнутся с самого начала»,— констатировал он. Для их решения государству совместно с экспертами и деловым сообществом предстоит уже в ближайшее время определить траектории развития образовательного процесса в сфере ИИ, пришли к выводу участники форума.

Диана Галиева

Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...