Код в доступе

Пентагон хочет неограниченно использовать нейросети для военных операций

Сотрудники ведущих американских технологических гигантов Google и OpenAI обратились к своим работодателям с призывом не допустить использования созданных ими нейросетей для массовой слежки за гражданами США и управления неподконтрольными человеку смертоносными системами. Прибегнуть к такой мере IT-специалисты решили после того, как президент США Дональд Трамп запретил госструктурам страны сотрудничать с разработчиком нейросети Claude, компанией Anthropic, из-за того что она настаивала на соблюдении Пентагоном ряда этических норм. По сообщениям СМИ, именно Claude использовалась американскими военными и спецслужбами при планировании и осуществлении последних атак на Венесуэлу и Иран.

Министр обороны США Пит Хегсет и Дэн Кейн, председатель Объединенного комитета начальников штабов США

Министр обороны США Пит Хегсет и Дэн Кейн, председатель Объединенного комитета начальников штабов США

Фото: Mark Schiefelbein / AP

Министр обороны США Пит Хегсет и Дэн Кейн, председатель Объединенного комитета начальников штабов США

Фото: Mark Schiefelbein / AP

Около 950 действующих сотрудников Google и OpenAI подписались под открытым письмом с призывом не допустить, чтобы нейросети этих компаний — Gemini и ChatGPT — использовались американскими госструктурами в целях, противоречащих «красным линиям». «Красные линии» ранее на переговорах с Пентагоном обозначила другая американская компания — Anthropic, разработчик нейросети Claude, с 2024 года тесно сотрудничавшая с военным и другими силовыми ведомствами США.

Anthropic потребовала, чтобы ее программа искусственного интеллекта не использовалась для массовой слежки за гражданами США (об иностранцах она не так беспокоилась) и управления неподконтрольными человеку автономными смертоносными системами (см. “Ъ” от 19 февраля). Но власти США на это не пошли.

27 февраля Дональд Трамп объявил о «немедленном запрете» правительственным структурам США сотрудничать с Anthropic.

«Левые придурки из Anthropic совершили КАТАСТРОФИЧЕСКУЮ ОШИБКУ, пытаясь надавить на Министерство войны и заставить его подчиняться своим служебным инструкциям, а не нашей Конституции,— написал он в своей соцсети Truth Social (орфография автора сохранена).— Из-за их эгоизма под угрозой оказываются ЖИЗНИ АМЕРИКАНЦЕВ, наши войска в опасности, а наша национальная безопасность под УГРОЗОЙ». В тот же день Пентагон признал сотрудничество с Anthropic «риском для цепочек поставок», внеся разработчика в черный список, в который ранее обычно вносили компании из недружественных США стран, прежде всего из Китая.

Из «немедленного запрета» на сотрудничество с Anthropic однако ничего не вышло: уже на следующий день, 28 февраля, США вместе с Израилем развязали войну против Ирана, активно использовав при этом, как стало известно из сообщений американских СМИ, технологии Claude. Ранее эта же нейросеть была задействована Пентагоном и спецслужбами США для планирования и осуществления операции по похищению президента Венесуэлы Николаса Мадуро.

Американский ИИ-стартап Anthropic основан в 2021 году бывшими сотрудниками OpenAI. Компания стала известна благодаря разработке семейства нейросетей Claude, отличающихся от конкурентов встроенной системой этических ограничений Constitutional Al. Claude умеет оценивать и корректировать свои ответы, если они нарушают заданные принципы безопасности. С 2024 года Claude активно используется США в военных целях и является единственной ИИ-моделью, допущенной к работе в засекреченных системах американских вооруженных сил. Специально созданная Anthropic для правительственных задач версия Claude Gov интегрирована в закрытые сети Пентагона через партнерство с компаниями Palantir и Amazon Web Services.

В военных целях Claude используется прежде всего как инструмент поддержки человеческих решений. Модель способна в режиме реального времени анализировать большие объемы разрозненных данных, сопоставляя информацию из разных источников (включая спутниковые снимки, съемку с дронов, пехотных систем дополненной реальности и взломанных дорожных и иных видеокамер, перехваченные коммуникации и агентурные сведения, сообщения из СМИ и соцсетей, опыт прошлых операций в отношении схожих мишеней), проводить симуляции боевых сценариев, идентифицировать и приоритизировать цели, а также оценивать возможный сопутствующий ущерб.

Детали использования Claude в Венесуэле и Иране неизвестны, но, по сообщениям СМИ, система позволила американским военным значительно сократить время принятия решений и повысить эффективность их исполнения, включая выбор целей нанесения ударов.

При этом в случае с Ираном неясно, насколько Пентагон полагался на одну или несколько нейросетей и проверялись ли ее выводы и предложения по целеполаганию людьми.

Так, в первый день бомбардировок один из ударов США или Израиля пришелся по начальной школе для девочек в городе Минаб на юге Ирана. Погибли почти 170 мирных граждан — в основном учениц, учителей и родителей. Около 100 человек получили ранения. В том же районе расположены аптека и клиника Медицинского командования ВМС Корпуса стражей исламской революции Ирана, а также дом культуры КСИР.

О том, были ли и по ним нанесены удары, не сообщается. Госсекретарь США Марко Рубио заявил, что власти разбираются с тем, что произошло. Верховный комиссар ООН по правам человека Фолькер Тюрк призвал к «незамедлительному, беспристрастному и тщательному расследованию обстоятельств нападения» на школу.

Известно, что в компьютерной программе Lavender, использовавшейся Израилем при выборе целей нанесения ударов по Газе, был прописан «сопутствующий ущерб» в 15–20 мирных жителей на каждого функционера палестинской группировки «Хамас» низшего или среднего звена, при этом всего программа выявила более 37 тыс. таких «мишеней». Операторы программы при этом, по сообщениям СМИ, ссылающихся на непосредственных участников операции, порой принимали решения об одобрении той или иной «мишени» всего за 20 секунд.

В ходе первых 12 часов войны против Ирана США и Израиль нанесли более 900 ударов по разным целям.

Уже после того, как стало известно, что американские военные продолжили пользоваться Claude и после официального «незамедлительного запрета» на сотрудничество с Anthropic, в Пентагоне пояснили, что у ведомства есть шесть месяцев на постепенный отказ от этой нейросети.

Последний контракт Anthropic с военным ведомством США оценивается в $200 млн. Пентагон уже начал переговоры с Google OpenAI и xAI (Илона Маска) по замещению Claude их нейросетями, настаивая на отсутствии каких-либо ограничений на использование соответствующих программ. С xAI Илона Маска, разработчиком нейросети Grok, ведомство уже начало активно сотрудничать на этих условиях.

Министр войны Пит Хегсет при этом ссылается на опыт Китая, чьи IT-компании тесно связаны с государством, что позволяет быстро переносить достижения гражданского ИИ в военные программы.

В Пентагоне настаивают, что, если США будут сдерживать себя добровольно, а Китай — нет, баланс сил в будущем конфликте может резко сместиться не в пользу Америки.

В OpenAI уже заявили о достижении предварительных договоренностей с Военным министерством США, и открытые письма сотрудников этой сделке вряд ли помешают.

Елена Черненко, Анна Пестерева

Фотогалерея

Операция Израиля и США в Иране

Смотреть