Интеллект под угрозой
В России начал формироваться рынок защиты ИИ
Российский рынок защиты систем искусственного интеллекта только формируется, но уже в 2026 году может превысить 1 млрд руб. Крупнейшие компании начинают внедрять инструменты анализа защищенности ИИ-систем на фоне громких утечек персональных данных и коммерческих тайн из чат-ботов. При этом участники рынка предупреждают о новых серьезных угрозах: злоумышленники все чаще маскируют кибератаки под легитимный трафик больших языковых моделей, что резко увеличивает их скрытность. Наиболее уязвимыми оказываются финансовый сектор, промышленность и ритейл.
Фото: Евгений Павленко, Коммерсантъ
Фото: Евгений Павленко, Коммерсантъ
По прогнозу IT-компании AppSec Solutions, российский рынок защиты ИИ в 2026 году составит не менее 1 млрд руб., достигнув в 2029 году 11 млрд руб. Рынок только формируется, но от него ожидают роста в геометрической прогрессии. Источник “Ъ”, близкий к крупной IT-корпорации, приводит более позитивные оценки: 3–4 млрд руб. в 2026 году и 25–30 млрд в 2030-м. При этом российский рынок генеративного ИИ к концу года достигнет 58 млрд руб. при объеме 13 млрд руб. в 2024 году (см. “Ъ” от 9 декабря).
На рынке в 2025 году зафиксированы первые публичные инциденты, которые связаны с утечками персональных данных и коммерческой тайны из GenAI-моделей, отмечает директор по кибербезопасности «СберТеха» Всеслав Соленик. По его словам, это формирует новый сегмент рынка: «С ростом применения ИИ в бизнесе и госсекторе защита от специфичных угроз, таких как манипуляции с ИИ-моделями, становится необходимостью».
У китайской компании—разработчика ИИ-чат-бота DeepSeek в начале 2025 года была выявлена первая крупная утечка данных из-за неправильно настроенной облачной базы, открывшей доступ к более чем миллиону записей, включая чаты пользователей, API-ключи и системные логи, по данным международной организации OWASP. Также в марте 2025 года злоумышленники воспользовались уязвимостью внедрения подсказок в ChatGPT, что привело к раскрытию конфиденциальных данных пользователя, сообщал OWASP.
Крупнейшие компании в области финтеха уже внедряют инструменты анализа защищенности ИИ-систем на устойчивость к атакам, говорит гендиректор AppSec Solutions Юрий Сергеев. «Наши ключевые заказчики — это крупные компании и организации, активно проходящие AI-трансформацию, включая финансовые организации, телеком и промышленные предприятия»,— добавляет господин Соленик.
При этом традиционные подходы к кибербезопасности — антивирусы, фаерволы, системы обнаружения внедрений — недостаточны для защиты больших языковых моделей, отмечает бизнес-партнер по ИБ Cloud.ru Юлия Липатникова: «Эффективная защита таких систем требует других принципов: постоянного анализа контекста, поведенческих аномалий и самообучения механизмов безопасности».
Злоумышленники знают, что в большинстве организаций ИИ-интеграции растут быстрее, чем системы контроля безопасности, и потому выбирают интеграции в качестве идеального укрытия, объясняет эксперт центра мониторинга и противодействия кибератакам компании «Информзащита» Шамиль Чич. «Самая серьезная угроза в том, что компании воспринимают LLM-трафик как доверенный по умолчанию»,—добавляет он. Кроме того, злоумышленники уже используют маскировку под трафик больших языковых моделей, что «увеличило незаметность кибератак на корпоративный сектор на 42%», говорит он:
«Именно эта "легитимная оболочка" делает новые атаки особенно опасными. ИТ-системы воспринимают их как штатное взаимодействие с ИИ, тогда как фактически речь идет о полноценном канале управления зараженными устройствами».
Наиболее подверженными новым атакам оказались три ключевых сектора экономики, добавляет господин Чич: финансовые организации (34%), промышленность и высокотехнологическое производство (27%), ритейл и e-commerce (21%). Оставшиеся 18% составляют государственные, образовательные и медицинские учреждения, где высокий трафик и сложная инфраструктура усиливают риск появления скрытых угроз, говорит он.