Зарубежные СМИ: Каковы претензии Пентагона к Anthropic?

17 февраля, вторник

Пентагон может разорвать контракт с Anthropic и внести разработчика нейросети в черный список. Споры военных с создателями модели Claude шли несколько месяцев и обострились после похищения Николаса Мадуро: при подготовке операции использовался искусственный интеллект. Ведомство требует у Anthropic полного доступа к инструментам, а компания настаивает на гарантиях, что с помощью модели не будут следить за американцами или разрабатывать оружие, которому не нужен человек. Теперь Пентагон может включить корпорацию в так называемую группу риска в цепочке поставок. Как пишет Axios, в таком случае все подрядчики ведомства должны будут отказаться от сотрудничества с Anthropic. Подробности — в обзоре иностранной прессы на “Ъ FM”.

Фото: Dado Ruvic / Illustration / File Photo / Reuters

Фото: Dado Ruvic / Illustration / File Photo / Reuters

Поводом для скандала стала январская военная операция в Каракасе. The Wall Street Journal сообщала, что американские военные использовали инструмент Claude от Anthropic при планировании и проведении рейда по задержанию Николаса Мадуро. Это первый известный случай применения коммерческой модели ИИ в секретной военной миссии Соединенных Штатов. При этом правила компании запрещают использование технологии для содействия насилию, разработки оружия или проведения слежки.

Один из крупнейших подрядчиков Пентагона в сфере искусственного интеллекта — компания Palantir. Именно к ней Anthropic обратилась за разъяснениями, как правительство использует Claude. Об этом узнали в Пентагоне и решили, что разработчик может быть против методов военных. Это вызвало у чиновников раздражение. В интервью Axios представители Пентагона заявили, что отношения министерства с компанией пересматриваются. Соединенные Штаты ожидают от своих партнеров готовности помогать военнослужащим «в любой битве, потому что речь идет о безопасности американцев». При этом Claude — единственная модель ИИ, которая сейчас доступна в секретных миссиях, и в Пентагоне высоко это ценят, добавляет издание.

В самой компании готовы смягчить условия использования, при этом требуя гарантий, что технологию не станут применять для массовой слежки за американцами или для создания оружия, которое активируется без участия человека. В Пентагоне, в свою очередь, считают эти ограничения слишком жесткими и хотят полностью развязать себе руки, используя модель для всех «законных целей». Один из собеседников Axios подчеркнул, что Пентагон уже давно разочарован в Anthropic. И этот конфликт — всего лишь повод.

Двухлетний контракт с ведомством оценивается примерно в $200 млн. Для сравнения: годовая выручка компании — $14 млрд. Но если Пентагон внесет Anthropic в черный список, проблемы возникнут у других игроков. Все подрядчики военных должны будут доказывать, что не используют Claude. Как добавляет Bloomberg, разработчики других моделей, включая ChatGPT, Gemini и Grok, сотрудничают с Пентагоном, чтобы убедиться в законности использования своих моделей.