Роботы над ошибками

Искусственному интеллекту определяют правила игры

В нацпроект по экономике данных, который правительство должно утвердить к июлю 2024 года, могут войти нормы о регулировании искусственного интеллекта (ИИ) и больших языковых моделей. Связанные с этим вопросы — в частности, ответственности за допущенные ИИ ошибки — обсуждались в экспертной группе при АНО «Цифровая экономика». Эксперты и участники рынка подтверждают, что пробелы в регулировании мешают широкому внедрению ИИ. Но и попытка «регулирования сверху» способна отпугнуть разработчиков.

Фото: Дмитрий Лебедев, Коммерсантъ

Фото: Дмитрий Лебедев, Коммерсантъ

Участники экспертной группы при АНО «Цифровая экономика» (АНО ЦЭ) обсудили включение в нацпроект по экономике данных до 2030 года положений, касающихся внедрения ИИ в отраслях, следует из имеющейся в распоряжении “Ъ” презентации. В числе предложений — сформировать в России «единый ИИ-регулятор». Полномочия ИИ-регулятора не раскрыты. Его основная часть посвящена большим языковым моделям (LLM; обучаются на массивах текстов и используются в нейросетевых сервисах). Авторы предложили доработать регулирование в РФ — в частности, прояснить, кто будет ответственен за ошибки, допущенные в результате применения ИИ.

Владимир Путин представил идею нацпроекта по экономике данных в июле, в сентябре опубликовано официальное поручение, по которому правительство должно утвердить нацпроект до 1 июля 2024 года. В России уже есть федеральный проект по ИИ (как часть завершающейся в 2024 году нацпрограммы «Цифровая экономика»), большинство его показателей касаются внедрения ИИ в промышленность, деятельность министерств и ведомств, а также вопросов науки.

В АНО ЦЭ сообщили, что контактируют с бизнесом по теме экономики данных, но «говорить о том, какие предложения будут взяты в проработку, преждевременно». Глава центра регулирования искусственного интеллекта Сбербанка Андрей Незнамов отметил, что «оптимально пилотировать любое регулирование в режиме экспериментальных правовых режимов с учетом этики ИИ». В «Яндексе», который разрабатывает генеративные нейросети и LLM, и Минцифры не ответили “Ъ”.

Сейчас в случае принятия неправильных решений в результате применения ИИ не всегда ясно, кто несет ответственность — заказчик модели, разработчик или оператор (например, автор запроса), подтвердил директор по продуктам Just AI Глеб Обломский. Отсутствие регулирования, по его словам, создает риск неправильного использования ИИ, нарушения прав и интересов пользователей. Но если исходить из того, что нейросеть — инструмент, то «права и ответственность за результат, который она создала, лежит на человеке, который написал программу или запрос», говорит управляющий директор практики «Данные и прикладной ИИ» Axenix Лариса Малькова.

В то же время источник “Ъ” в крупной IT-компании считает, что на текущем этапе развития ИИ в РФ «любая попытка регулирования может создать правовые барьеры».

По его мнению, есть риск, что по умолчанию ответственность будут нести только разработчики, и это может затормозить инновации.

Самая актуальная регуляторная проблема для развития ИИ в РФ — это фактически отсутствующий правовой статус работы с обезличенными данными, сказали “Ъ” в Ассоциации больших данных (объединяет «Яндекс», VK, «Ростелеком», «МегаФон» и др.). Там уточнили, что понятие обезличенных данных не раскрыто в правовом поле, а рекомендуемые Роскомнадзором методы обезличивания технически таковыми не являются: «Это методы псевдонимизации, они небезопасны с технологической точки зрения».

Герман Греф, глава Сбербанка, 21 сентября:
«Рождение мультимодальных больших лингвистических моделей, генеративных моделей… приведет к очень существенному сдвигу на рынке труда. И вообще на всех рынках без исключения».


Участники обсуждения при АНО ЦЭ, согласно презентации, также предложили снять ограничения с организаций, которым сейчас запрещено использовать коммерческие облачные сервисы, чтобы они могли обучать собственные ИИ-модели. Но ограничения (под них подпадают федеральные министерства и ведомства, правоохранительные органы, предприятия ВПК) касаются только публичных облаков, уточнил гендиректор Oxygen Павел Кулаков: «Им ничто не мешает заказать внедрение приватного облака, данные в котором будут внутри защищенного контура. Но зачастую это противоречит требованиям, которые организации устанавливают сами для себя».

Господин Обломский добавил, что отсутствие регулирования порой служит преимуществом, так как позволяет разработчикам экспериментировать: «Другие страны не торопятся с регулированием потому, что боятся проиграть в гонке ИИ, хоть и активно обсуждают их с рынком». В РФ у рынка, утверждает источник “Ъ” в крупном бизнесе, нет запроса на пересмотр регулирования, «есть точечные вопросы, которые решаются практикой».

Юрий Литвиненко, Никита Королев

Зарегистрируйтесь, чтобы дочитать статью

Еще вы сможете настраивать персональную ленту, управлять рассылками и сохранять статьи, чтобы читать позже

Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...