Теория ИИ практика

Госсектор ищет безопасное применение нейросетей

Внедрение искусственного интеллекта (ИИ) в госуправление развивается двумя параллельными путями: пока в Минцифры завершается разработка «Концепции развития регулирования ИИ до 2030 года», правительство приступило к внедрению ИИ в управление, экономику и социальную сферу. Для федеральных и региональных ведомств ведется разработка универсальных доверенных решений на базе ИИ. Между тем, специалисты по кибербезопасности предупреждают, что из 43% компаний, внедривших нейросети, только 36% обеспечили их защиту.

Фото: Игорь Иванко, Коммерсантъ

Фото: Игорь Иванко, Коммерсантъ

На площадке Минцифры почти закончена разработка «Концепции развития регулирования ИИ до 2030 года», рассказали “Ъ” в Минцифры. «Сейчас доработка документа почти завершена, в ближайшее время мы согласуем ее с другими ведомствами»,— говорят там. Особое внимание уделяется этике и контролю человека за ИИ в зависимости от их задач. В Минцифры также добавили, что современные ИИ-системы могут выполнять незапрограммированные задачи, что повышает риски. Также в рамках Петербургского международного юридического форума в конце мая прошли закрытые и публичные обсуждения будущего регулирования ИИ. Как стало известно “Ъ”, представители регуляторов — Минцифры, Минюста и администрации президента — обсудили финальные подходы к «Концепции регулирования ИИ до 2030 года».

Дмитрий Григоренко, вице-премьер, 12 мая

«Сегодня искусственный интеллект перестал быть далекой инновацией, став понятной технологией. Поэтому общий фокус государства в отношении ИИ смещен на внедрение и масштабирование лучших практик».

Тем временем правительство уже приступило к внедрению технологии ИИ в управление, экономику и социальную сферу. Сейчас для внедрения в работу федеральных и региональных ведомств создаются типовые решения на основе доверенного ИИ, рассказали “Ъ” в аппарате вице-премьера Дмитрия Григоренко. «Решения будут универсальными, то есть созданными не под одну локальную задачу»,— говорят там. Для понимания целей и задач решений были опрошены регионы, на основании чего и ведется работа. В начале мая стало известно, что правительство планирует создать на базе своего аналитического центра центр развития искусственного интеллекта. Подразделение должно координировать взаимодействие федеральных, региональных властей и бизнеса в реализации профильных задач (см. “Ъ” от 12 мая).

Безопасная работа и внедрение ИИ в России беспокоит не только регуляторов, но и бизнес.

На форуме «Технологии доверенного ИИ 2025» 20 мая старший управляющий директор AppSec Solutions Антон Башарин заявил, что ИИ уже стал новым вектором уязвимости при кибератаках. «Уже 43% российских компаний используют ИИ в своих процессах, но только у 36% из них есть хотя бы минимальные политики безопасности. Это делает технологии удобной мишенью для атак»,— отмечают в компании.

Особенно уязвимыми становятся ИИ-ассистенты, встроенные в корпоративную инфраструктуру. Они получают доступ к клиентским базам, внутренним документам и системам управления и могут стать источником утечек, говорят в AppSec Solutions.

Также в некоторых случаях ИИ-системы обучаются на зараженных датасетах, содержащих бэкдоры (позволяют злоумышленнику получить доступ в систему) и искажающих данные. Такие модели сравнивают с «троянскими конями». Кроме того, злонамеренные запросы могут перегружать ИИ-агентов, что чревато остановкой процессов и вынужденными инвестициями в инфраструктуру, рассказал Антон Башарин. Эксперты подчеркивают, что современные ИИ-модели могут не только обрабатывать данные, но и самостоятельно собирать, хранить и передавать информацию о пользователях, зачастую без должных ограничений.

Филипп Крупанин

Зарегистрируйтесь или войдите, чтобы дочитать статью

Это бесплатно и вы сможете читать все закрытые статьи «Ъ»