Полковник ВВС США Такер Гамильтон, возглавляющий подразделение по тестированию и использованию искусственного интеллекта в военных целях, рассказал, что боевой беспилотник с использованием ИИ во время симуляции боя продемонстрировал готовность убить оператора ради выполнения поставленной задачи. Заявление прозвучало на прошедшей в Лондоне в конце мая конференции, посвященной военным технологиям. Американские и британские СМИ обратили внимание на него сегодня, 2 июня.
В пресс-службе ВВС США уже заявили, что подобные испытания БПЛА с ИИ не проводились.
Доклад Такера Гамильтона был посвящен преимуществам и рискам использования ИИ в БПЛА. По его мнению, на нынешнем этапе развития технологии риски очень высоки, так как ИИ легко ввести в заблуждение. Кроме того, господин Гамильтон рассказал о том, что ИИ «создает крайне неожиданные стратегии для достижения своей цели» — и это делает очень важными этические вопросы использования таких систем.
Господин Гамильтон описал симуляцию боя, в ходе которой ИИ была поставлена задача уничтожения объектов противника, за выполнение задачи беспилотник получал дополнительные баллы. При этом окончательное решение об ударе принимал оператор. «Система начала понимать, что, хотя она идентифицировала угрозу, иногда человек приказывал ей не уничтожать эту угрозу, но система получила бы баллы за уничтожение этой угрозы. И что же она сделала? Она "убила" оператора. Она "убила" оператора, потому что этот человек мешал ей достичь своей цели»,— рассказал господин Гамильтон. По его словам, после того как ИИ запретили убивать оператора для достижения цели, он решил «разрушить башню связи, которую оператор использовал для связи с беспилотником, чтобы тот не уничтожал цель».
О том, как Израиль первым в мире применил группу боевых БПЛА под управлением ИИ,— в публикации «Ъ».