Задавить интеллектом

Вадим Козюлин — о запрете боевых автономных роботов

Угрозы, которые представляют автономные ударные системы с использованием искусственного интеллекта, можно разделить на три группы. Первая связана с проблемой так называемого значимого человеческого контроля, то есть с рисками, связанными с исключением человека из цикла принятия решения о применении оружия. Представители мировой общественности считают, что выдача машине «лицензии на убийство» станет нарушением прав человека и международного гуманитарного права, этических и моральных принципов. Кроме того, неясно, кто будет отвечать за действия «роботов-убийц» — командир, оператор, программист или производитель?Именно эту группу угроз и будут рассматривать эксперты на предстоящей конференции в Женеве. Исторически этот форум обычно запрещал определенные виды вооружений: ослепляющие лазеры, боеприпасы с необнаруживаемыми осколками, мины-ловушки, зажигательное оружие. Полным запретом может закончиться и рассмотрение вопроса о боевых автономных роботах. Запрет относительно легко принять, но почти невозможно проконтролировать…
)