«Умные» алгоритмы
Эксперты обсудили регулирование «сильного» ИИ
Как показал форум, в экспертном сообществе продолжаются споры о сроках возникновения «сильного» искусственного интеллекта (ИИ), способного мыслить и принимать решения, диапазон оценок — от семи до нескольких десятков лет. В результате ряд участников форума настаивает, что к появлению «сильного» ИИ нужно готовиться уже сегодня: определять траектории создания «этичного» ИИ и организовать контроль за такими разработками. Другие же настаивают на более «приземленных» проблемах в вопросах этики. В частности, пока сохраняется недопонимание между разработчиками и потребителями решений, также сохраняются риски неумышленной дискриминации людей при делегировании решений алгоритмам.
Фото: Олег Харсеев, Коммерсантъ
Самостоятельный интеллект
Пока у искусственного интеллекта нет «внутреннего Я», самостоятельно делающего выбор и принимающего решения (иными словами, пока отсутствует «сильный» ИИ), говорить об этике ИИ нецелесообразно, пришли к выводу участники форума. По их мнению, пока стоит говорить об этике разработчика или пользователя. При этом, как показало обсуждение, существует разрыв в понимании этических принципов крупными и малыми компаниями. В частности, между представителями бизнеса возник спор о том, на кого в первую очередь накладываются обязательства по этичному поведению.
По мнению директора «Лекториума» Якова Сомова, стартап встраивается в «чужую производственную цепочку больших корпораций, большого государства, больших акторов» и поэтому должен «игнорировать этику и заниматься излечением прибыли и поиском устойчивой бизнес-модели». При этом поиск ответов на этические вопросы о том, каким образом применять технологии, предлагается делегировать государству и корпорациям. В свою очередь, крупные компании рассчитывают на сотрудничество с этичными разработчиками. «Стартап на начальном этапе должен мыслить широко, но и компания при покупке решения должна быть уверена, что оно не нанесет вред и не нарушит этических норм»,— указывает директор по анализу данных и моделированию «Газпром нефти» Анджей Аршавский. С ним согласен и вице-президент по искусственному интеллекту МТС Александр Ханин. «Интерес к стартапу формируется за счет правильного информационного поля. Ты не можешь поднять капитализацию компании до высокого уровня, если в твоей ДНК нет базовой этики»,— считает эксперт.
В целом мнение большинства участников форума сводится к тому, что ответственность за принятие решений пока несет человек и именно разработчику нельзя допускать, когда ИИ будет оказываться в ситуации морального выбора. Пока в российских компаниях отсутствуют требования к этичности разработчиков, но в перспективе могут стать важным критерием при отборе поставщиков решений, указывают участники дискуссии.
Ответственность в рамках
Практическая реализация этических принципов также стала ключевым вопросом форума. «Когда мы говорим об этике, надо вести речь о том, какие технологические решения сам разработчик закладывает в узкий ИИ с точки зрения общепринятых норм морали»,— указывает старший вице-президент по инновациям фонда «Сколково» Кирилл Каем. Проблема заключается в том, что мораль обладает предельной гибкостью, поскольку представления о том, что считать моральным, меняются со временем и отличаются в разных странах. По мнению ректора Университета «Иннополис» Александра Тормасова, чтобы «перевести морально-гуманитарные нормы в конструктив», необходимо любое утверждение об «этичности технологии» снабжать серией тестов, которые должны выдавать «приемлемый результат» — речь идет, например, об алгоритме по одобрению кредитов вне зависимости от пола и национальности. Сами тесты должны обновляться, при этом необходимо развести тех, кто разрабатывает тесты, применяет их, отслеживает апдейт и проверяет на соответствие этике: насколько «приемлемые» результаты соответствуют нормам морали, предлагается судить все же специальной комиссии.
В свою очередь, директора по развитию технологий ИИ «Яндекса» Александр Крайнов считает, что при применении технологий ИИ не может действовать закон больших чисел, каждая ошибка должна быть серьезной проблемой, поскольку может привести к дискриминации. При этом причины возможных дискриминирующих решений зачастую не связаны с предубеждениями разработчика, а объясняются массивом данных, на которых обучалась модель. В таких данных могут найтись корреляции, которые невидимы для разработчика, но могут привести к дискриминации групп людей или отдельного человека — в частности, в модель может случайно попасть номер телефона или имя, по которым можно определить страну или национальность, и алгоритмы адаптируются к этим данным. Необходимы решения, которые бы анализировали решения на предмет возможной дискриминации, рекомендует Александр Крайнов.
Классическая проблема дискриминации проявляется при использовании технологии распознавания лиц людей, которые проходят автоматические пункты пограничного контроля, приводит примеры из практики директор Thales DIS в России Ильдар Скрижалин. «Аэропорт — место встречи людей разных национальностей, и перед компанией стоит задача обеспечить недискриминационный подход»,— поясняет он. Государству при внедрении алгоритмов также необходимо следить, чтобы технологии были этичными и недискриминирующими, указывают эксперты. Для обеспечения непредвзятости и доступности технологий в Татарстане, например, внедряют сервисы, доступные на двух языках, отмечает руководитель Центра цифровой трансформации республики Динар Самигуллин.
По мнению экспертов, ИИ позволяет заметно повысить эффективность предприятий, но реализовать этические нормы зачастую можно только за счет отказа от таких решений. В качестве примера прозвучал неудачный опыт Amazon по использованию ИИ при отборе потенциальных сотрудников на основе резюме: программа отдавала предпочтение мужчинам и игнорировала женщин. В результате корпорация ограничилась применением алгоритмов только для выполнения простейших задач. Возможные пределы делегирования решений искусственному интеллекту достаточно широко обсуждались на форуме. По мнению Анны Серебряниковой, сегодня невозможно доверить ни одно решение ИИ, при этом в медицине и правосудии есть наработки, позволяющее ИИ формировать «второе мнение», но пока это рекомендательные системы — критические решения должен принимать человек. Так, Thales DIS предлагает технологии, позволяющие оптимизировать трафик в аэропортах на основе данных о погодных условиях, расстоянии между самолетами и их габаритах и др. Речь идет о цифровом помощнике диспетчера и пилота, но «решение все равно принимает человек и человек должен понять, почему ИИ предлагает такое решение», указывает Ильдар Скрижалин.
Начальник аналитического управления Департамента информационных технологий Москвы Дмитрий Онтоев рассказывает, что в столице работают системы поддержки принятия врачебных решений и компьютерного зрения для обработки рентгенологических снимков — эти технологии воспринимаются как вспомогательные. Так, алгоритмы обращают внимание специалиста на возможные патологии, позволяют ему быть более точным в принятии решений и тратить меньше времени на простые, рутинные задачи. «Это большой и долгий спор, что можно и нельзя делегировать ИИ, но так как государство занимается вещами социально значимыми, решения должен принимать человек»,— констатировал чиновник.
«Сильный» ИИ на подходе
Больше всего споров у экспертов вызывает вопрос о сроках появления «сильного» искусственного интеллекта, обладающего собственной субъектностью и способного делать собственный выбор. По мнению старшего вице-президента по инновациям «Сколково» Кирилла Каема, разработка «сильного» ИИ потребует еще не менее 15 лет. Главный аналитик Центра искусственного интеллекта МФТИ Игорь Пивоваров считает, что такие алгоритмы появятся через несколько десятков лет. Наиболее позитивный прогноз дает президент Ассоциации больших данных Анна Серебряникова, отмечая, что «прогресс ускоряется кратно» и горизонты появления «сильного» ИИ составляют семь-десять лет в зависимости от отрасли. Более обеспокоенную позицию занимают представители оборонных ведомств. Так, по словам врио начальника главного управления научно-исследовательской деятельности Минобороны Александра Осадчука, «технологии начинают самообучаться» и важно не упустить момент возникновения «сильного» ИИ, организовав «гарантированный контроль за такими разработками».
Экспертное сообщество также считает, что готовиться к появлению сильного ИИ нужно уже сегодня. В частности, вице-президент по развитию и планированию «Сколково» Сергей Израйлит указывает: «Если мы сможем создать сейчас по-настоящему "умную" машину, мы не сможем ей объяснить, что такое хорошо, а что такое плохо». «В этот момент мы сломаемся, потому что кодекс этики для разработчиков у нас есть, мы будем его усовершенствовать, но объем здравого смысла, который нужен для его интерпретации, большой, и нам нужно делать шаги в сторону конкретизации положений»,— поясняет он. Решением проблемы может стать развитие машиночитаемого, то есть понятного для алгоритмов, права — это тот язык, на котором человечеству придется разговаривать с информационными системами, которые разработаны и построены, чтобы занимать человекоцентричный подход. По мнению экспертов, исследования по этике нужно вести именно в отношении «сильного» ИИ, а именно определить, каким он должен быть, как он будет делать выбор и как все же «создать его этичным».