На фоне активного развития систем автопилотирования все чаще в новостях фигурируют сообщения об авариях, произошедших с участием машин, способных ездить без водителя. Один из самых нашумевших случаев произошел в прошлом году с Tesla Model S, влетевшей на скоростной трассе под прицеп грузовика. Разбор полетов показал, что проблема кроется гораздо глубже, чем думалось. На ее исправление уйдет целое десятилетие, а первоначальная идея автоматизированного транспорта исказится до неузнаваемости. Причиной тому — человеческий фактор.
Во вторник, 18 июля, стали известны подробности очередной аварии с участием автомобиля Tesla Model X, произошедшей в минувшую субботу в американском штате Миннесота. Машина вылетела с дороги, в аварии пострадали водитель и четыре пассажира. Владелец кроссовера Дэвид Кларк сначала заявил, что электромобиль внезапно ускорился, находясь под управлением автопилота, но позже признался, что в момент аварии машиной управлял сам.
Количество упоминаний автопилотируемых автомобилей в контексте той или иной аварии растет с каждым днем. Да, далеко не в каждом инциденте виноват компьютер, но уже есть и такие. Одна из таких аварий с Tesla Model S произошла в мае 2016 года в штате Флорида. Двигающийся на автопилоте автомобиль улетел под прицеп грузовика, который вздумал пересекать автомагистраль для разворота. По данным Американского национального института по безопасности на транспорте (NTSB) компьютерная система не распознала белый борт на фоне светлого неба, и посчитала его фантомом или облаком тумана. Не сработали и другие компоненты, а именно радар, не заглянувший выше клиренса фуры. Налицо системная недоработка, о которой, кстати, предупреждали сами производители. Автопилот слишком несовершенен и его необходимо контролировать во избежание ошибок.
Производители разобрали выводы комиссии NTSB на монады с целью найти в них рациональное зерно и поправить недостатки своих устройства. Но оказалось, что быстренько внести корректировки невозможно и процесс растянется до третьего десятилетия.
«При гигантских вычислительных способностях современного ‘железа’ уровень понимания окружающего мира у искусственного интеллекта никакой», — рассказывает ведущий научный сотрудник института проблем информатики РАН Николай Сомин. Программа не может отличить бетонный блок от картонной коробки, или скомканный лист бумаги от булыжника, глубокую лужу от прозрачной пленки, а белый борт от облака. Она не читает знаки, затертые граффити, и не узнает запорошенные снегом кварталы.
Столь банальные для человека явления не по зубам компьютеру не потому что он безнадежно туп. Просто его никто не выучил разбираться в физических свойствах материалов. К примеру, о структуре камня говорит преломление света на поверхностях и характер трещин, а о массе свидетельствуют микродвижения на ветру. Человек мгновенно считывает эти параметры, потому как изучает свойства предметов с 5-месячного возраста. А вот «искусственный интеллект» в школе не сиживал и остается полным неучем. Поэтому электрокар «Тесла» наивно посчитал гигантский грузовик за маленькую тучку.
Техника на полигоне
Как же быть? Ведь вручную смоделировать и занести в память компьютера безграничный массив информации о мире и природе невозможно. Единственный выход — отправить автопилот в школу жизни, где он и пройдет десятилетний цикл всесторонней зубрежки.
Первым это сделали американцы. В 2015 году заработал полигон MCity Мичиганского университета, где смоделированы районы стандартного города с перекрестками и светофорами. Там есть и куски автострад, а так же паркинги и ж/д разъезды. Комплекс раскинулся на 13 гектарах земли в пустынных районах у города Анн-Арбор в штате Мичиган.
«Искусственный интеллект умеет учиться. Его программное ядро строится на так называемых нейронных сетях, которые имитируют строение человеческого мозга», — рассказывает исполнительный директор ассоциации 'Автонет' Владимир Колмаков. Он накапливает информацию и «методом научного тыка» допускает и исправляет ошибки. По сути, машина копирует поведение ребенка только что севшего на велосипед и набивающего шишки.
Но процесс затягивается. Отработка элементарных маневров занимает месяцы однообразных тестов.
За неделями идут месяцы, и сроки релиза технологий автоматизированного будущего сдвигаются. По самым оптимистичным прогнозам только к 2020 году «искусственный интеллект» накопит минимальный багаж знаний, чтобы выйти за пределы изолированных инкубаторов и более не попадать в нелепый просак, как Tesla. И тогда стартует второй этап обучения. Искусственный интеллект вступит в прямое взаимодействие с людьми.
Без понятий
С выходом автопилотируемых машин в города для программистов начнется кошмар: придется решать гораздо более трудные задачи по обеспечению порядка на дорогах. Ведь искусственный интеллект в принципе не понимает человека. «Искусственный интеллект опирается на бинарную машинную логику, где есть две комбинации: ‘да или нет’, — рассказывает Николай Сомин. — Человеческое же мышление тринитарно и ищет как истину третий вариант действий. Другими словами, живая логика объединяет противоположности и выдает результирующий синтез».
К примеру, водитель трактора перестроится на обочину, пропуская «колбасу» сзади. Он нарушает правила, но во имя правды. И здесь надо так обогнать, чтобы не помешать ему вернуться обратно. Или человек встанет на край «зебры» и курит. Как объяснить «железу», почему пешеход таращится на поток? Может он потерял башмак в луже или, влекомый состраданием к людям, пропускает побольше машин на мигающий зеленый. А вдруг он пьян или отдыхает? Можно ли ехать? Программа однозначно затормозит и будет стоять часами не шелохнувшись, пока пешеход не уйдет с обочины.
Из-за невозможности сочинить анализатор человеческой логики возникают трудности и с пересечением круговых перекрестков: он весь состоит из противоречий
Там надо отжимать машины справа и предугадывать водительские настроения. А это запрещено правилами, требующими «пропускать помеху справа». Компьютер не способен решить парадокс и попросит помощь водителя.
Человек по большей части ездит по понятиям, а не по закону. Он пропускает тех, кому это очень надо, перестраивается в пробках через одного, формально нарушая закон ради общественного блага. Ведь не правильно, чтобы один ряд ехал, а другой стоял, запертый в рамках сплошной разметки. Водители как-то договариваются, машут, улыбаются и кланяются. Автопилот так не умеет. Он встанет колом у поворота и будет собирать пробку, дожидаясь часами, пока кто-нибудь не остановится за 40 метров и не освободит ему коридор. Как уж тут «железу» понять человека? Города рискуют погрузиться в транспортный коллапс. А если фундаментально разрешить автопилоту нарушать и расталкивать пешеходов на зебре, то действительно случится бунт машин, неосознанный и беспощадный. Преступать закон по чуть-чуть искусственный интеллект не умеет. Давить курицу или ребенка для него без разницы.
В общем, флоридское происшествие вскрыло глубокие противоречия в машинной и человеческой логике. Чтобы не нажить проблем, лучше разводить человеческий и автоматизированный потоки транспорта. Сейчас все силы отданы на построение работоспособной междугородней сети грузовых перевозок с изолированными полосами движения на междугородних магистралях. Именно большегрузные фуры должны первыми получить автопилот. Это коммерчески выгодно. Да и на автострадах человеческий фактор легко свести до нуля. Если же водитель захочет подержаться за баранку, то ему позволят покинуть зону роботизированного движения и вырваться на свободу за пределами скоростной дороги. В города автопилот выпускать пока побаиваются.
На обучение и доработку сложного программного ядра уйдет около десятилетия
, — отмечает Владимир Колмаков. К 2028 году возможно закончится бета-тестирование, ну а массовое внедрение автоматизированных систем управления личными автомобилями реально стоит ждать не ранее 2035 года. Возможно к тому времени инженеры придумают, как в одном городе разделить энергичный человеческий и математически скучный автономный потоки транспорта.