«Если человек научит боевых роботов захватывать мир, они это сделают»

Ученые требуют ограничить разработку оружия с искусственным интеллектом

Американские ученые подписали петицию против создания систем оружия, наделенных искусственным разумом. По их мнению, боевые роботы могут нанести вред человечеству. Собеседники «Коммерсантъ FM» такого варианта развития событий не исключают.

Фото: filmz.ru

Стивен Хокинг и тысяча других ученых выступили против создания боевых роботов. Они подписали петицию против разработки искусственного интеллекта в военной области. Ученые предостерегают, что машины, которые будут выбирать и уничтожать цели без человеческого участия, могут быть опасны. В письме отмечается, что для создания роботов-убийц не потребуется таких значительных затрат, как для разработки ядерного оружия, и не исключено, что они впоследствии появятся на черном рынке. В связи с этим ученые опасаются, что машины с искусственным разумом окажутся в руках террористов и диктаторов. Такой сценарий действительно возможен, но не в ближайшем будущем, считает специалист по робототехнике Эдуард Пройдаков.

«Говорят о самосознании роботов. Сейчас некоторые элементы таких вещей уже появились, особенно за прошедший год. Но только надо не путать самосознание роботов с самосознанием человека. Для робота самосознание — это ощущение своей конфигурации, поэтому эти работы, когда роботу отвинчивают ногу, а он переконфигурируется и бежит вместо четырех на трех ногах, — это как раз некоторое проявление. Чего боится Хокинг? Того, что процесс будет неуправляемым. То есть, поскольку вычислительные возможности позволяют производить массу всевозможных операций, мы можем не уследить за этим развитием», — пояснил Пройдаков «Коммерсантъ FM».

Письмо против создания оружия с искусственным интеллектом также подписали основатель частной космической компании SpaceX Илон Маск, сооснователь Apple Стив Возняк и философ Ноам Хомский. Однако при правильной разработке роботы не смогут выйти из-под контроля, считает генеральный директор компании «НавиРобот» Игорь Кузнецов.

«Главная задача боевых роботов — снижение человеческих жертв на поле боя. Того, что именно они в обозримом будущем возьмут и захватят мир зачем-то, — тут еще вопрос в том, зачем им это надо, я совершенно не опасаюсь. Да, они будут развиваться. Боевые роботы будут автономны, будут принимать решение о выборе и уничтожении цели. Но любое оружие опасно. Если человек научит его захватывать мир, оно захватит мир. Если мы создаем самоуправляемое оружие, которое само на поле боя выбирает цель, самоконфигурируется и осознает себя, то давайте создавать его с ограничениями, например, с тревожной кнопкой, которая выключает все. Как человек этих роботов разработает, так они и будут дальше развиваться», — уверен Кузнецов.

Начиная с 50-х годов прошлого века ученые также выражали обеспокоенность в связи с созданием ядерного оружия. Тогда было создано Пагуошское движение, в которое в числе других экспертов входил Альберт Эйнштейн. Конференции этой организации проводятся до сих пор. Вопрос использования военных роботов уже поднимался на заседаниях ООН. Ученым не удастся остановить разработку оружия с искусственным интеллектом, уверен руководитель робототехнического центра фонда «Сколково» Альберт Ефимов.

«Невозможно не отметить лицемерие очень многих подписантов. С одной стороны, они берут деньги у оборонных ведомств, особенно в Соединенных Штатах, таких как DARPA, Пентагон. С другой стороны, они призывают к запрету своих же собственных исследований. Плохая новость заключается в том, что такое оружие уже десятки лет стоит на вооружении разных стран мира. Все зенитно-ракетное вооружение работает по такому принципу. Более того, такого рода инциденты уже приводили к трагическим жертвам. Если вспомнить иранский пассажирский самолет в Персидском заливе, который был в 80-х годах сбит американской ракетой, запущенной именно в таком автономном режиме», — отметил Ефимов.

Два года назад вице-премьер Дмитрий Рогозин заявил о том, что к 2020 году российской армии необходимо полностью перейти на бесконтактный способ ведения боя. Он подчеркнул, что это позволит минимизировать потери среди солдат.

Яна Пашаева

Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...