Использование искусственного интеллекта (ИИ) связано с несколькими серьезными рисками, сообщил зампред ЦБ РФ Василий Поздышев в интервью «РИА Новости». По его мнению, один из таких рисков — вопрос защиты персональных данных.
«Могу назвать как минимум следующие риски, связанные с использованием искусственного интеллекта. Во-первых, даже самую сложную нейросеть можно взломать»,— сказал господин Поздышев. Он привел в пример ситуацию, когда большинство нейросетей, решающих задачу биометрической идентификации, способно отличить мужчину от женщины или одного человека от другого, но если на лицо прилепить кусочек лейкопластыря и написать на нем слово STOP, то некоторые нейросети переведут эту картинку из категории «лица» в категорию «дорожные знаки».
«Во-вторых, нейросети способны создавать фейковую реальность»,— заявил зампред ЦБ РФ. ПО его словам, нейросеть, если ей создать такую задачу, может создать миллионы лиц несуществующих людей, включая полный набор полный набор несуществующих биометрических данных. Другие же нейросети будут воспринимать их как реальных людей. Господин Поздышев добавил, что таким же образом можно создать несуществующие юрлица и трансакции.
«Третий риск связан с тем, что применение искусственного интеллекта усложняет вопросы защиты персональных данных, поскольку появляется риск доступа к элементам обучающей выборки, а значит, к персональным данным, которые искусственный интеллект может “вытащить” из обучающей выборки»,— объяснил зампред ЦБ. По его словам, «бенефиты для общества от использования новых технологий абсолютно понятны». «Но в этом мире никогда не бывает бенефитов без рисков, и эта “ложка дегтя” может оказаться вовсе не ложкой и вовсе не дегтя»,— добавил зампред ЦБ.
Ранее президент–председатель правления Сбербанка Герман Греф сообщил, что банк потерял миллиарды рублей из-за ошибок искусственного интеллекта. По его словам, каждая ошибка искусственного интеллекта потом выявлялась и помогала улучшить его работу.
Напомним, в октябре президент РФ подписал указ об утверждении национальной «Стратегии развития искусственного интеллекта на период до 2030 года». Значительная часть документа посвящена созданию благоприятного правового режима для развития технологий, включая выработку этических норм взаимодействия человека и ИИ.
Подробнее — в материале “Ъ” «Моральный кодекс строителей интеллекта».