Пентагон берет ИИ в свои руки
Успешный рейд с использованием искусственного интеллекта в Венесуэле превратился в этический спор и «кошмар» для бизнеса
Пентагон вступил в открытый конфликт с компанией Anthropic, разработчиком ИИ-системы Claude, которая с успехом была использована в ходе операции в Венесуэле. Компанию фактически хотят добавить в черный список из-за ее этических убеждений. Anthropic потребовала у Пентагона ограничить применение своего ИИ для автономного оружия и слежки за американцами. Министр войны Пит Хегсет воспринял это как попытку ограничить его полномочия и поставить под сомнение компетенции своего ведомства. Исход этого спора покажет, смогут ли компании-разработчики ИИ контролировать использование своих технологий государством. С подробностями — корреспондент “Ъ” в США Екатерина Мур.
Здания Пентагона в Вашингтоне
Фото: Kent Nishimura / Reuters
Здания Пентагона в Вашингтоне
Фото: Kent Nishimura / Reuters
Несмотря на успешную операцию в Венесуэле, где Пентагон, по данным Wall Street Journal (WSJ), задействовал Claude — систему искусственного интеллекта (ИИ) компании Anthropic, ведомство сегодня, похоже, готово не просто поставить крест на дальнейшем сотрудничестве с одним из самых перспективных игроков американского ИИ-рынка, но и всерьез ударить по всему бизнесу компании. Пентагон рассматривает возможность признать сотрудничество с Anthropic «риском для цепочек поставок» — статусом, который фактически приравняет компанию к фигурантам черных списков и вынудит подрядчиков отказываться от использования Claude оборонным ведомством и всеми его партнерами, сообщает Axios.
Обычно в такие списки вносились иностранные компании из недружественных стран, например из Китая. Угроза в адрес крупнейшего игрока на внутреннем ИИ-рынке выглядит беспрецедентной.
Причина — в принципиально разных этических подходах министерства и самой компании к тому, как именно допустимо использовать ИИ в военной сфере.
Парадокс заключается в том, что нынешнее обострение началось после, казалось бы, образцовой с точки зрения эффективности и «технологичности» операции. По данным WSJ, Claude был интегрирован в оперативный контур и использовался как аналитический «мозг» для поддержки рейда по захвату бывшего президента Венесуэлы Николаса Мадуро. Модель обрабатывала в режиме, близком к реальному времени, массивы разведданных, помогая командирам уточнять расположение целей, оценивать риски и планировать действия на земле. Хотя в ходе миссии погибли иностранные военные и силовики, ни один американский солдат серьезно не пострадал. Пентагон увидел в этом величайшее достижение.
Однако, по информации Axios, именно после публикаций об использовании Claude в этой операции руководство Anthropic обратилось к Пентагону с уточняющими вопросами о характере использования модели и фактически дало понять, что подобные действия могут противоречить внутренним этическим правилам компании.
Для военных это стало шоком: как поставщик, чья модель помогла провести столь успешную операцию, смеет ставить под сомнение легитимность ее применения? С этого момента Anthropic из успешного партнера ведомства превратился в кандидата на применение санкций.
В последние месяцы Министерство обороны ведет переговоры с четырьмя ключевыми игроками — OpenAI, Google, xAI (Илона Маска) и Anthropic, пытаясь добиться единого подхода: их модели должны быть безоговорочно доступны для «всех законных целей» в области обороны и национальной безопасности.
По данным утечек, Пентагон уверен, что OpenAI, Google и xAI готовы принять такой стандарт, и рассматривает Anthropic как единственное крупное препятствие.
В отличие от конкурентов, Anthropic с самого начала строила репутацию вокруг «этического ИИ». В переговорах с Пентагоном компания готова была обсуждать частичные послабления, но оставила два принципиальных условия: запрет на использование Claude для создания и эксплуатации полностью автономных систем вооружений, которые самостоятельно принимают решение об открытии огня без участия человека и отказ разрешать использование модели для массовой слежки за гражданами США.
Показательно, что в феврале 2026 года из компании ушел один из ведущих исследователей по безопасности ИИ Мринанк Шарма. В своих публичных заявлениях он предупреждал, что «мир в опасности» из-за темпа и масштаба внедрения ИИ и что механизмы контроля рисков в крупных лабораториях недостаточны (хотя напрямую свой уход с конфликтом вокруг Пентагона он и не связывал).
Со своей стороны Пентагон пришел к нынешнему «ИИ-развороту» не вчера. Еще в конце 2010-х годов в ответ на китайскую программу «интеллектуализации» в Вашингтоне были созданы первые структуры, отвечающие за интеграцию алгоритмов в оборону, такие как Объединенный центр искусственного интеллекта (JAIC), учрежденный в 2018 году. В 2021–2023 годах курс сместился к системной интеграции данных и алгоритмов в командование и управление войсками (инициатива CJADC2). В 2023–2026 годах это вылилось в новую стратегию «Внедрение данных, аналитики и ИИ» и обновленную доктрину Пентагона, где ставится задача встроить ИИ в процессы принятия решений и в рамках программы Replicator развернуть в ближайшие годы тысячи автономных и полуавтономных систем в разных сферах.
Китай на этом направлении выступает ключевым драйвером ускорения. Китайские компании тесно связаны с государством, что позволяет быстро переносить достижения гражданского ИИ в военные программы. В ежегодных докладах Пентагона это описывается как «вызов»: если США будут сдерживать себя добровольно, а Китай — нет, баланс сил в будущем конфликте может резко сместиться не в пользу Америки.
Именно этим аргументом глава Пентагона Пит Хегсет и его сторонники оперируют в споре с Anthropic. В их логике, в то время как Пекин уже испытывает автономные системы с минимальным участием человека, Вашингтон не может позволить себе «роскошь» дополнительных ограничений, навязанных частными компаниями. Сам Хегсет описывал Китай как «агрессивного» и «почти неминуемого» противника. В кулуарах министр, по данным ряда СМИ, рассуждает о необходимости введения жестких ограничений в отношении Anthropic как «идеологическую настройку, которая ставит под угрозу национальное выживание», и дает понять, что Пентагон откажется от поставщиков, которые не готовы «сражаться» или мешают исполнению «командирского замысла, исходя из чувствительности совета директоров в Сан-Франциско».
Общественное мнение в США при этом ближе к опасениям Anthropic, чем к уверенности Пентагона. Исследования Gallup показывают, что почти половина американцев выступает против разработки автономных систем вооружений; в некоторых опросах доля противников «роботов-убийц» достигает 55%, а среди людей с военным опытом — около 73%. Примерно 60% респондентов считают, что внедрение ИИ идет «слишком быстро». Исход этой схватки определит, какой контроль ИИ-лаборатории сохранят над своими технологиями в условиях столкновения интересов национальной безопасности и этики.