Переговоры Anthropic с Пентагоном зашли в тупик из-за этических ограничений для ИИ

Переговоры компании Anthropic о продлении контракта с Пентагоном приостановлены из-за дополнительных защитных механизмов, которые компания хочет внедрить в свой ИИ-инструмент Claude. Об этом сообщает Bloomberg со ссылкой на источник.

Агентство уточняет, что Anthropic желает установить препятствия, чтобы помешать использованию Claude для массовой слежки за американцами или для разработки оружия, которое может быть применено без участия человека. Военное министерство же возражает против этого, считая достаточными ограничения со стороны законодательства США, сообщает Bloomberg.

«Отношения Военного министерства с Anthropic пересматриваются. Наша нация требует, чтобы наши партнеры были готовы помочь нашим бойцам одержать победу в любом бою. В конечном счете, речь идет о наших войсках и безопасности американского народа»,— приводит агентство комментарий представителя Пентагона Шона Парнелла.

В 2025 году Anthropic заключила двухлетний контракт с Пентагоном на использование прототипов ИИ-моделей: Claude Gov, созданной специально для обработки секретных материалов и разведданных, а также корпоративной версии Claude for Enterprise. При этом компания позиционирует себя как ответственного разработчика, стремящегося избежать вреда от технологий и обслуживать госзаказчиков в рамках собственных этических норм.

До этого Reuters сообщало, что OpenAI, Anthropic, Google и xAI ведут переговоры с Пентагоном о том, чтобы развернуть их нейросети в закрытых сегментах военных сетей. Пентагон настаивает на том, чтобы компании сняли с ИИ ограничения, мешающие боевому применению алгоритмов.

Эрнест Филипповский