У международного сообщества проблемы с интеллектом

Что члены Совбеза ООН думают о чат-ботах и других проявлениях ИИ

Совет Безопасности ООН на этой неделе занялся новой для себя темой: впервые в истории этот международный орган обсудил искусственный интеллект (ИИ). Точнее, связанные с ним «возможности и риски для международного мира и безопасности». «Ъ» решил проанализировать, что ключевые члены Совбеза и руководители ООН думают на этот счет и какие шаги предпринимают уже сейчас.

2023 год стал прорывным для искусственного интеллекта: обсуждать его стали даже в Совбезе ООН

2023 год стал прорывным для искусственного интеллекта: обсуждать его стали даже в Совбезе ООН

Фото: Евгений Павленко, Коммерсантъ

2023 год стал прорывным для искусственного интеллекта: обсуждать его стали даже в Совбезе ООН

Фото: Евгений Павленко, Коммерсантъ

ООН

На Совете Безопасности ООН в соответствии с уставом всемирной организации лежит «главная ответственность за поддержание международного мира и безопасности». Поэтому не удивительно, что в 2023 году, когда об ИИ во всем мире заговорили особенно громко, члены Совбеза решили провести заседание на тему «Искусственный интеллект: возможности и риски для международного мира и безопасности». Вернее, решила Великобритания, как действующий председатель Совбеза, но спорить никто особо не стал.

«Ваше присутствие сегодня подчеркивает важность рассматриваемой темы»,— обратился во вторник, 18 июля, к генсеку ООН Антониу Гутерришу министр иностранных дел Великобритании Джеймс Клеверли, который выступал на заседании в статусе председателя Совбеза.

Затем генсек Гутерриш подробно рассказал, что думает по заявленной теме. По его словам, он уже шесть лет пристально наблюдает за развитием ИИ.

Антониу Гутерриш заявил, что никто не ожидал, что «искусственный интеллект окажет столь сильное влияние на устойчивое развитие, сферу труда и социальный порядок».

Генсек признался, что «был поражен и впечатлен» радикальным прорывом в возможностях ИИ, который проявился в ChatGPT, а также других подобных сервисах и программах.

GhatGPT — это чат-бот с искусственным интеллектом, разработанный компанией OpenAI. Возможности его максимально широки: чат-бот может вести с пользователями диалоги, отвечать на вопросы, писать код и искать ошибки в нем, разрабатывать бизнес-планы, сочинять стихи и так далее. GhatGPT был запущен 30 ноября 2022 года. Всего за два месяца аудитория активных пользователей достигла 100 млн человек. Сейчас подобные чат-боты разрабатываются и развиваются целым рядом компаний, например Google (Bard), Apple и Baidu (ERNIE Bot).

Выступая на заседании, Антониу Гутерриш обратил внимание на невиданную скорость распространения технологии. Он рассуждал: человечество сейчас находится в поворотном моменте истории, «скорость и разнообразие новых технологий во всех их формах являются беспрецедентными», и этот прорыв многие сравнивают с изобретением книгопечатного станка, вот только на распространение того изобретения по Европе потребовалось более 50 лет, а GPT-чат достиг 100 млн пользователей всего за два месяца. Согласно приведенным генсеком прогнозам, «к 2030 году ИИ может принести мировой экономике от $10 трлн до $15 трлн дохода».

Генсек ООН Антониу Гутерриш признался, что «был поражен и впечатлен» возможностями ИИ

Генсек ООН Антониу Гутерриш признался, что «был поражен и впечатлен» возможностями ИИ

Фото: Brendan McDermid, Reuters

Генсек ООН Антониу Гутерриш признался, что «был поражен и впечатлен» возможностями ИИ

Фото: Brendan McDermid, Reuters

Говоря собственно о «возможностях и рисках», Антониу Гутерриш заявил: «Даже сами разработчики не знают, куда приведет их этот потрясающий технологический прорыв». С одной стороны, ИИ может значительно ускорить глобальное развитие. Он может использоваться для множества задач — от контроля над климатическим кризисом или за соблюдением прав человека до медицинских исследований.

С другой стороны, продолжал рассуждать Антониу Гутерриш, ИИ может «усиливать предубеждения» среди населения разных стран и дискриминацию, а также служить тем, кто стремится к авторитарному контролю над обществом. Искусственно сгенерированный контент, вводящий в заблуждение (deep fake),— это всего лишь один из множества вариантов применения ИИ, которые могут иметь серьезные последствия для мира и стабильности. Более того, как отмечал генсек ООН, «злонамеренное использование систем искусственного интеллекта террористическими, преступными организациями вплоть до государственного уровня может вызвать смерти и разрушения ужасающих масштабов».

Антониу Гутерриш не впервые поднял эту тему. Например, в июне он обращал внимание на то, что «ученые и эксперты призвали мир к действию, объявив искусственный интеллект экзистенциальной угрозой человечеству наравне с риском ядерной войны». «Мы должны серьезно отнестись к этим предупреждениям»,— отмечал он. Учитывая это, по словам генсека, вопрос мониторинга и регуляции ИИ — крайне срочный и откладывать его нельзя.

Генсек ООН поддержал призывы ряда стран—членов всемирной организации к созданию нового органа ООН по вопросам ИИ.

«Основная цель этого органа сводилась бы к поддержке стран в получении максимальной пользы от ИИ, устранении существующих и будущих угроз, а также установлении и реализации выработанных на международном уровне механизмов мониторинга и контроля»,— продолжил генсек ООН. И добавил: такой орган мог бы функционировать по аналогии, например, с Международным агентством по атомной энергии (МАГАТЭ), Международной организацией гражданской авиации (ИКАО) или Международной группой экспертов по изменению климата (МГЭИК).

Великобритания

Автор идеи созыва заседания Джеймс Клеверли согласился с тезисом о необходимости «срочного формирования государственного управления трансформационными технологиями, потому что ИИ не знает границ».

Глава британского МИДа также поделился видением Лондона по этому вопросу, которое основано на четырех принципах:

— открытости ИИ, который должен поддерживать свободу и демократию;

— ответственности ИИ, что предполагает соответствие верховенству закона и правам человека;

— безопасности ИИ и предсказуемости алгоритмов, что включает в себя защиту прав собственности, конфиденциальности и национальной безопасности;

— ИИ должен пользоваться доверием общественности, а его критически важные системы должны быть защищены.

Как именно добиться всего этого — слишком широкий вопрос для одного заседания Совбеза ООН. Но вполне подходящий для первого глобального саммита, посвященного безопасности и регулированию технологии искусственного интеллекта. Он пройдет в Британии осенью. В канцелярии британского премьера Риши Сунака сообщали, что в работе саммита примут участие ученые, а также представители руководства стран-лидеров на рынке технологических компаний и «ключевых государств». Их список оглашать пока не стали, но информированные собеседники издания The Daily Telegraph рассказали, что речь идет о встрече глав «государств-единомышленников».

Власти Великобритании (на фото: глава МИД Джеймс Клеверли) хотят осенью собрать всех союзников для обсуждения угроз со стороны ИИ

Власти Великобритании (на фото: глава МИД Джеймс Клеверли) хотят осенью собрать всех союзников для обсуждения угроз со стороны ИИ

Фото: Brendan McDermid, Reuters

Власти Великобритании (на фото: глава МИД Джеймс Клеверли) хотят осенью собрать всех союзников для обсуждения угроз со стороны ИИ

Фото: Brendan McDermid, Reuters

В список наверняка войдут Франция (президент республики Эмманюэль Макрон называет ее «номером один в области искусственного интеллекта в континентальной Европе»), Япония (власти страны намерены к концу 2023 года принять регулирующие отрасль законопроекты) и другие страны G7 (не случайно члены «семерки» на майском саммите согласились с необходимостью управления в области ИИ, решив обсудить этот вопрос и представить результаты к концу года). А вот участие РФ, учитывая формулировку о единомышленниках, под большим вопросом.

«ИИ обладает невероятным потенциалом для того, чтобы изменить нашу жизнь к лучшему, но мы должны убедиться, что он разработан и используется безопасным и надежным способом»,— заявил британский премьер Риши Сунак, анонсируя саммит по ИИ.

При этом в Британии есть разные мнения насчет того, насколько кардинально ИИ может поменять нынешний миропорядок. Так, 19 июля, на следующий день после заседания Совбеза, эту тему прокомментировал руководитель британской внешней разведки MI6 Ричард Мур. «ИИ сделает информацию бесконечно более доступной, некоторые спрашивают, не выведет ли он из игры такие разведслужбы, как моя? Скорее все будет наоборот,— заверил он в ходе выступления в Праге.— По мере того как ИИ будет бороздить океан с открытыми источниками, все более ценным будет становиться обнаружение секретов, лежащих за пределами досягаемости его сетей». Так что агентам MI6, не в последнюю очередь занятым противодействием России, похоже, не стоит волноваться за свои кресла.

Россия

Позицию РФ на заседании представлял заместитель постпреда при ООН Дмитрий Полянский, и его выступление существенно выделялось из общего ряда. При подготовке речи господин Полянский воспользовался нетипичным для дипломатии инструментом — одним из чат-ботов.

На вопрос, угрожает ли он международной безопасности, ИИ ответил, что есть и угрозы, и позитивные стороны. В первой категории были перечислены киберуязвимости, автономные оружейные системы с искусственным интеллектом (поскольку, как процитировал господин Полянский чат-бота, «такие системы могут принимать решения о применении силы без прямого участия человека, что может привести к непредсказуемым последствиям и усилению военных конфликтов»), распространение дезинформации («это может подорвать доверие к информации и способствовать социальной напряженности»).

При подготовке своей речи заместитель постпреда РФ при ООН Дмитрий Полянский обратился к первоисточнику – одному из продвинутых чат-ботов

При подготовке своей речи заместитель постпреда РФ при ООН Дмитрий Полянский обратился к первоисточнику – одному из продвинутых чат-ботов

Фото: Brendan McDermid, Reuters

При подготовке своей речи заместитель постпреда РФ при ООН Дмитрий Полянский обратился к первоисточнику – одному из продвинутых чат-ботов

Фото: Brendan McDermid, Reuters

Дипломат продолжил, что в этом контексте необходимо определиться с природой угрозы и для этого нужна научная дискуссия, которая уже идет на профильных площадках. Например, отдельно обсуждается военное применение ИИ, отдельно — аспекты, связанные с информационными технологиями. «Считаем, что дублировать эти усилия контрпродуктивно»,— добавил господин Полянский, давая понять: от идеи создания нового органа в структуре ООН Москва не в восторге. При этом дипломат, по сути, раскритиковал и выбор площадки для обсуждения темы (он назвал такой выбор неочевидным), и использованные формулировки («постановку вопроса об ИИ в непосредственной связи с угрозой миру и безопасности» российский представитель счел «несколько искусственной»).

В целом же выступление Дмитрия Полянского показало, что сферу ИИ — как практически и все остальное — Москва считает полем противостояния с Западом.

«Сегодня мы, к сожалению, являемся свидетелями того, как западные страны во главе с США подрывают доверие к собственным технологическим решениям и реализующим их компаниям из IT-индустрии. Регулярно вскрываются факты вмешательства американских спецслужб в деятельность крупнейших корпораций, манипуляции с алгоритмами контента, слежки за пользователями, в том числе и с помощью заводских закладок в аппаратных средствах и программном обеспечении»,— перечислил претензии Дмитрий Полянский.

Кроме того, господин Полянский заверил: Запад «не видит этических проблем в том, чтобы сознательно позволять искусственному интеллекту пропускать человеконенавистнические высказывания на просторах соцсетей, если они вписываются в удобную ему политическую линию», искусственный интеллект «учат разгонять фейки и дезинформационные вбросы», блокировать «ту правду, которая колет им (западным спецслужбам.— “Ъ”) глаза», «генерировать целые цифровые массивы, фабрикуя тем самым историю». «Если суммировать,— подвел итог Дмитрий Полянский,— то основным генератором вызовов и угроз в этом смысле выступает не сам искусственный интеллект, а недобросовестные поборники искусственного интеллекта из числа особо продвинутых демократий».

Между тем на следующий день тема обсуждалась на совещании президента РФ Владимира Путина с членами правительства — и там столь жестких формулировок не звучало. Напротив, президент Путин признал, что «без определенных связей, контактов и наработок на мировом уровне нам не обойтись». При этом в качестве главной задачи он поставил обеспечение «настоящего технологического суверенитета».

Выступавшие — глава Минцифры Максут Шадаев и министр экономики Максим Решетников — сделали целый ряд предложений. Например, стимулировать госкомпании к применению технологий искусственного интеллекта за счет включения таких проектов в стратегии цифровой трансформации, обеспечить доступ разработчиков к обезличенным данным, сформировать условия для создания российских вычислительных мощностей, увязать использование ИИ с получением господдержки. В целом участники совещания были настроены оптимистично, отмечая: вопрос о внедрении искусственного интеллекта уже сейчас находится в повестке каждого российского региона и каждого российского ведомства.

Более того, российские власти продвигают эту повестку на уровне дружественных объединений — таких как СНГ, БРИКС, ШОС и ЕАЭС. Еще в 2021 году зампред Совбеза РФ Дмитрий Медведев назвал «весьма перспективным» взаимодействие по этой теме в БРИКС, где «представлены страны с высоким уровнем развития искусственного интеллекта». По его словам, стоило разработать некий общий документ, который бы позволил «выйти на модельные законы, которые содержали бы регулирования, актуальные для всех стран направления».

«Это вопросы и беспилотного транспорта, и интеллектуальных разработок, и внедрение искусственного интеллекта в медицине, здравоохранении. Тем более что европейские страны достаточно ограниченно этим занимаются, нас там в ряде случаев в эти обсуждения не зовут, можно было бы все это обсуждать на площадке БРИКС», — отметил тогда Дмитрий Медведев. А в июне этого года тему обсудили главы МИДов стран БРИКС. В заявлении по итогам заседания они упомянули необходимость ответственно и этично развивать ИИ, продолжать сотрудничество друг с другом и содействовать «укреплению международного управления искусственным интеллектом и развитию политических обменов и диалогов в этой области».

Китай

Если рассматривать пятерку стран БРИКС, то больше всего можно поучиться у Китая. Еще в 2017 году там была принята «Программа развития искусственного интеллекта нового поколения», а в этом году КНР стала первой в мире страной, где разработали и приняли специальные правила, регулирующие деятельность генеративного искусственного интеллекта (программ и сервисов, позволяющих генерировать изображения, видео и музыку). Они вступят в силу 15 августа.

Как говорится в разработанном целым рядом ведомств документе, правила выработаны ради содействия «здоровому развитию и стандартизированному применению генеративного ИИ, защиты национальной безопасности и общественных интересов, а также защиты законных прав и интересов граждан, юридических лиц и других организаций». Среди прочего в правилах прописано, что генерируемый ИИ контент должен воплощать основные социалистические ценности, не ставить под угрозу нацбезопасность, не содержать пропаганды терроризма и насилия, порнографии, ложой и вредоносной информации. Отмечено также, что сгенерированный ИИ контент должен быть соответствующим образом помечен.

Постпред Китая Чжан Цзюнь не против создания под эгидой ООН органа по проблемам ИИ, но только если он будет полностью инклюзивным и открытым

Постпред Китая Чжан Цзюнь не против создания под эгидой ООН органа по проблемам ИИ, но только если он будет полностью инклюзивным и открытым

Фото: Brendan McDermid, Reuters

Постпред Китая Чжан Цзюнь не против создания под эгидой ООН органа по проблемам ИИ, но только если он будет полностью инклюзивным и открытым

Фото: Brendan McDermid, Reuters

В целом эксперты считают, что по уровню развития ИИ Китай сейчас уступает лишь США, а к 2030 году (в соответствии со все той же «Программой развития искусственного интеллекта нового поколения») намерен занять лидерскую позицию. И тут для Пекина важна не только экономическая выгода (в результате освоения новых рынков), но и повышение стабильности правящего режима (технологии давно используются для контроля над поведением граждан КНР, но, как известно, нет предела совершенству). И здесь видится противоречие со словами представителей Великобритании и других стран о том, что технологии ИИ должны «поддерживать свободу и демократию».

Пекин не против создания нового наднационального органа под эгидой ООН. Как заявил на заседании Совбеза постпред Китая Чжан Цзюнь, такая структура имеет право на существование, но лишь при условии ее полной инклюзивности и открытости.

Дипломат призывал к тому, чтобы «ведущие технологические предприятия определили круг ответственных сторон, создав надежный механизм подотчетности, и избегали разработки или использования рискованных технологий, которые могут иметь серьезные негативные последствия».

Тревожным было выступление другого участника заседания Совбеза от Китая — профессора Института автоматизации при Китайской академии наук Цзэн И. Он заявил, что уже сейчас искусственный интеллект запутывает пользователя, используя местоимение «я», притом что ничего человеческого там нет. Хотя, как отметил эксперт, пользователю все инструменты обработки информации «кажутся обладающими интеллектом, они не имеют реального человеческого сознания и, следовательно, не являются по-настоящему разумными». «Вот почему им, конечно, нельзя доверять как ответственным агентам, которые могут помочь людям принимать решения»,— заявил Цзэн И. А потом и вовсе предупредил: учитывая методы взаимодействия человечества с окружающей средой, искусственному интеллекту будет сложно найти причины для защиты людей.

США

Выступление Цзэн И так впечатлило и. о. заместителя постпреда США при ООН Джеффри Де Лорентиса, что тот удостоил его отдельной благодарности. При этом, хотя слово «Китай» в речи американского дипломата не прозвучало, несколько абзацев были посвящены в первую очередь именно ему. Так, господин Де Лорентис заявил: «Сейчас мы работаем с широкой группой заинтересованных сторон над выявлением и устранением связанных с ИИ рисков для прав человека, которые угрожают миру и безопасности. Ни одно государство-член не должно использовать ИИ для цензуры, ограничения свобод, подавления или лишения прав людей».

Джеффри Де Лорентис призвал всех «работать вместе, чтобы гарантировать, что ИИ и другие появляющиеся технологии не будут использоваться в первую очередь как оружие или инструменты репрессий, а будут скорее инструментами для защиты человеческого достоинства и помощи нам в воплощении в жизнь наших лучших устремлений».

К объединению всех и вся призывал другой участник из США — соучредитель компании Anthropic (стартапа в области ИИ) Джек Кларк, который ранее выступал по тому же вопросу перед членами Конгресса США (там в 2023 году тоже стали активно интересоваться темой, разрабатывая законопроекты и встречаясь с экспертами; в следующий раз слушания в Сенате на тему регулирования ИИ пройдут 25 июля). Как заявил членам Совбеза Джек Кларк, государства не должны пускать все на самотек, а то иначе придется «жить под диктовку исключительно небольшого числа фирм, конкурирующих друг с другом на рынке» ИИ.

И. о. заместителя постпреда США при ООН Джеффри Де Лорентис уверен, что ИИ никем и никогда не должен использоваться для «цензуры, ограничения свобод, подавления или лишения прав людей»

И. о. заместителя постпреда США при ООН Джеффри Де Лорентис уверен, что ИИ никем и никогда не должен использоваться для «цензуры, ограничения свобод, подавления или лишения прав людей»

Фото: Mary Altaffer / AP

И. о. заместителя постпреда США при ООН Джеффри Де Лорентис уверен, что ИИ никем и никогда не должен использоваться для «цензуры, ограничения свобод, подавления или лишения прав людей»

Фото: Mary Altaffer / AP

Некоторые из этих фирм, кстати, сейчас тоже находятся в растерянности в связи со столь стремительным темпом развития технологии. В марте было опубликовано открытое письмо с требованием приостановить на полгода разработку систем ИИ, «более мощных, чем ChatGPT-4», и призывами создать протоколы безопасности. В письме было указано, что нейросети, чьи интеллектуальные возможности сравнимы с человеческими, могут нести угрозу обществу. «Мы должны спросить себя: стоит ли нам позволить машинам заполонить наши информационные каналы пропагандой и ложью? Стоит ли нам автоматизировать все профессии, включая те, что приносят удовлетворение? Стоит ли нам рисковать потерей контроля над цивилизацией?» — задавались вопросами подписанты.

Как утверждалось в мае, с этими тезисами согласились более 1,8 тыс. руководителей компаний (включая основателя Tesla Илона Маска и соучредителя Apple Стива Возняка) и более 1,5 тыс. профессоров и ученых (например, канадский математик и кибернетик Йошуа Бенжио, которого называют «крестным отцом ИИ»). Сейчас общее количество подписей превышает 33 тыс.

В числе тех, кто высказывает опасения,— экс-госсекретарь США Генри Киссинджер, который даже написал книгу на эту тему. Дипломат и мыслитель, которому в мае исполнилось 100 лет, уверен, что именно ИИ станет ключевым фактором в области безопасности уже в течение пяти лет. В частности, он опасается создания полностью автоматизированного оружия, которое невозможно будет остановить. Как заявил господин Киссинджер в мае в интервью журналу Economist, мировым лидерам необходимо понять, что ИИ нельзя «разгонять» до максимальных пределов — иначе мир окажется под угрозой уничтожения.

Очевидно, что создание межнационального органа по вопросам ИИ под эгидой ООН не избавит человечество от конфликтов, споров и взаимных подозрений насчет этих технологий. Это доказывает история, например, все того же МАГАТЭ. Так что надежды генсека Гутерриша вряд ли полностью оправдаются. Однако, как уверен Генри Киссинджер, даже сам факт переговоров на межнациональном уровне повысит предсказуемость и уровень глобальной безопасности. И с этим тезисом согласиться уже проще.

Павел Тарасенко; Екатерина Мур, Вашингтон

Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...