Этика становится глобальной
Как в мире развивается регулирование ИИ
Технологии искусственного интеллекта (ИИ) все активнее внедряются во многих странах, однако, учитывая глобальный характер подобных разработок, регулирование ИИ также должно носить международный характер — это позволит создать единые правила игры. Пока главной инициативой в этой области является список принципов этики ИИ, утвержденный на уровне ЮНЕСКО, однако часть экспертного сообщества выступает за более жесткое регулирование, предполагающее закрепление принципов этики в правовых нормах.
Разработки в сфере ИИ носят глобальный характер, поэтому только регулирование на международном уровне позволит создать равные условия игры для всех компаний
Фото: Reuters
По оценке ЮНЕСКО, в следующему году внедрение технологий искусственного интеллекта позволит создать почти на $4 трлн добавленной стоимости, а к 2020 году более 70% получаемых выгод будет приходиться на два рынка — Китай и США. «ИИ характеризуется тем, что победитель получает все, именно поэтому применение технологии нуждается в регулировании»,— отмечают в организации.
Именно на базе ЮНЕСКО были утверждены и первые глобальные рекомендации в области этики ИИ: в документе изложено 141 положение о регулировании систем ИИ в различных сферах, в том числе когда это касается рынка труда и здравоохранения. Базовые принципы включают защиту прав человека, ненанесение вреда, отсутствие дискриминации, обеспечение безопасности, соблюдение прав на конфиденциальность и защиту данных, сохранение ответственности за человеком. Отдельно отмечается, что искусственный интеллект не должен использоваться для социального скоринга и осуществления массовой слежки.
Международные инициативы в области ИИ разрабатываются и в рамках Совета Европы (в него входят 47 стран) — здесь еще в 2019 году был создан специальный Комитет по искусственному интеллекту (CAHAI). Члены комитета отвечают за выработку новых юридических норм, а также определение тех сфер, где потребуется правовое регулирование и где будет достаточно рекомендаций.
«Если нам не удастся установить систему ответственности, социальные последствия могут быть крайне разрушительными»,— предупредил, выступая на форуме «Этика искусственного интеллекта: начало доверия», председатель комитета Кристиан Бартолин. Он сообщил, что в конце года комитет представит рекомендации на уровне совета министров, затем, как ожидается, начнется разработка списка обязывающих норм. При этом они не будут покрывать все проблемы рынка и регулировать экономические интересы разработчиков и пользователей ИИ — целью таких норм станет предотвращение нарушения прав человека, демократии и верховенства права посредством внедрения технологии, пояснил председатель комитета.
Потребность в международном обязывающем регулировании объясняется и тем, что ни одна страна не может в полной мере осуществить самостоятельное регулирование ИИ — эта технология носит глобальный характер, тогда как единый подход позволит создать равные условия игры для всех компаний, добавляет Кристиан Бартолин. Подобные правила также не должны быть привязаны к конкретным технологическим решениям: технологии развиваются слишком быстро — существенно быстрее, чем меняется законодательная практика.
В июле этого года CAHAI представил отчет по итогам опроса представителей власти, бизнеса и научных организаций о рисках, связанных с использованием ИИ (всего было опрошено 260 экспертов из разных стран). Выяснилось, что больше всего возможностей для применения ИИ эксперты видят в здравоохранении (диагностика), защите окружающей среды (прогнозирование изменений климата), образовании (расширение доступа к нему) и финансовой сфере (борьба с мошенничеством). Также ИИ может помочь в борьбе с дискриминацией за счет обеспечения равного доступа к тем или иным благам или услугам. Тогда как наиболее выраженные риски использование ИИ может иметь в сфере правосудия и правоприменения (наиболее опасными практиками эксперты сочли скоринг для доступа к публичным услугам, анализ эмоциональной вовлеченности сотрудников и распознавание лиц).
Большинство респондентов при этом выступили за более жесткое регулирование ИИ со стороны государств. По их оценке, текущих рекомендаций недостаточно для решения практических проблем. В частности, это касается «бремени доказывания» безопасности алгоритма (его должна нести организация, внедряющая ИИ) и введения права на пересмотр решения алгоритма человеком. Половина опрошенных высказалась против использования распознавания лиц в общественных местах.
Внедрению этических норм на практике будет способствовать и разработка нового стандарта ISO (Международной организации по стандартизации). «Это не технический документ, в его подготовке участвуют эксперты из широкого перечня отраслей»,— отметила юрист организации Вивека Бонде, добавив, что рынку нужен «идеальный коктейль из обязывающих норм и рекомендаций».
Разработчиков и пользователей ИИ действительно больше всего должны беспокоить вопросы технической надежности, отметил эксперт в области ИИ из Монреальского университета Марк-Антуан Дильак, выступая на конференции AI Journey. Он привел сравнение с аварией на атомной станции «Фукусима», предупредив, что ИИ может быть даже опаснее атома из-за более значительного влияния на человечество. «ИИ состоит из "слепого" мышления, поэтому возникает проблема неполной объяснимости, человеческое мышление тоже не всегда объяснимо, однако в случае с ИИ у человека нет возможности высказать протест, поэтому ответственность должна оставаться за разработчиками и теми, кто внедряет ИИ»,— призвал эксперт.
О негативных последствиях нерегулируемого внедрения ИИ предупредил в своей статье и известный экономист, профессор MIT Дарон Асемоглу. Он выделил три группы рисков: первая касается получения и контроля над информацией. Концентрация информации о пользователях и обработка этих данных ИИ повышает риски того, что корпорации будут забирать большую часть выгоды потребителей. Конкуренция может стать менее справедливой — опять же из-за того, что у одной компании будут более полные данные, чем у другой. Более того, развитие ИИ потенциально дает возможность манипулировать поведением граждан или потребителей, используя их уязвимости (то есть ИИ будет знать больше информации о пользователе, чем он сам). Эти проблемы могут быть решены за счет установления справедливого вознаграждения за данные, учитывающего их социальную ценность, полагает автор статьи.
Вторая группа рисков касается влияния новых технологий на рынок труда: когда автоматизация лишь замещает труд, а не ведет к увеличению производительности, общее ее влияние на экономику будет негативным из-за снижения зарплат и доли занятых. Мониторинг ИИ эффективности сотрудников также может выглядеть крайне привлекательно для работодателей, но может вести к негативным социальным последствиям, поясняет господин Асемоглу. Третья же группа рисков касается влияния ИИ на коммуникацию и демократические процессы. В этот блок автор включает негативные последствия от распространения несуществующей или некорректной информации, а также риски установления тотального контроля над обществом — «большого брата».
На уровне отдельной компании риски становятся тем выше, чем большую долю рынка она занимает, отметил директор по развитию технологий искусственного интеллекта «Яндекса» Александр Крайнов. Он пояснил, что все системы ИИ заточены на минимизацию ошибки, но ее возможные последствия будут различными в случае с выбором музыки и с теми применениями ИИ, которые имеют судьбоносное значение. Особенно аккуратно алгоритмы должны применяться тогда, когда компания становится монополистом на рынке — она не может допускать дискриминации пользователей, даже если речь идет о совсем небольшой группе людей. В случае ущемления их прав применение ИИ должно быть остановлено, несмотря на положительный эффект от внедрения технологии для большинства пользователей — для этого в российский кодекс был добавлен пункт про защиту прав и каждого отдельного человека. При этом эксперт призвал соотносить не только риски внедрения и неприменения технологии ИИ — сейчас много ошибок происходит из-за отсутствия возможности использовать технологию там, где она могла бы снижать риски и потенциальные потери, заметил Александр Крайнов.
Андрей Незнамов, Управляющий директор Центра регулирования AI Сбербанка, о том, как в мире реализуются принципы этики искусственного интеллекта:
— Рекомендации ЮНЕСКО — это, по сути, первый международный документ в области этики ИИ, принятый большим количеством стран, в нем более 100 пунктов. По мере внедрения этих принципов страны должны будут предоставлять отчеты, также в организации планируют разработать методологию оценки того, насколько хорошо каждая страна исполняет рекомендации.
В российском кодексе этики ИИ уже учтены все основные принципы, перечисленные в рекомендациях ЮНЕСКО, поэтому не потребуется принятия каких-либо дополнительных документов. При этом российский кодекс отличается более широким спектром механизмов исполнения, а также в целом более прагматичным подходом, ориентированным на конкретные кейсы.
Отдельный документ также разрабатывается на уровне Совета Европы, но он будет носить обязательный, а не рекомендательный характер и потребует ратификации на страновом уровне, что может занять еще несколько лет. В ЕС также готовится более жесткое регулирование, четко прописывающее, где можно применять ИИ, а где — нет.
Другого подхода придерживаются в Китае: здесь самобытная правовая и политическая культура, но в стране тоже появились свои принципы этики — формально они отражают европейские ценности, но с некоторыми смягчениями.
Новое регулировании ИИ активно обсуждается и в США, причем как на федеральном уровне, так и на уровне штатов. Здесь почти все документы в области этики ИИ инициируются отдельными компаниями или экспертами, на государственном уровне приняты только этические принципы для госорганов, внедряющих системы ИИ. Активнее всего новые нормы разрабатываются в Калифорнии: здесь уже действует ряд ограничений для ИИ, а также введено обязательное требование об идентификации ИИ при использовании чат-ботов.