ЛовИИсь кодер большой и маленький
Интернет-пользователи с помощью ChatGPT стали решать не только рутинные, но и бизнес-задачи
Генеративные модели стали инструментом как для сотрудников IТ-компаний (например, в части написания кода), так и для киберпреступников, которые используют ИИ для атак на корпоративные системы. Несмотря на то что компании-разработчики пытаются цензурировать такие запросы из этических соображений, ChatGPT и другие языковые модели активно используются для создания фишинговых писем и вредоносного кода.
Фото: Игорь Иванко, Коммерсантъ
Фото: Игорь Иванко, Коммерсантъ
ИИ в разработке
На российском IТ-рынке стремительно растет количество вайб-кодеров. Это подход к разработке ПО, когда вместо написания кода традиционным способом разработчик формулирует проблему или желаемую функциональность, а ИИ генерирует соответствующий программный код. Одна из причин — повсеместное сокращение IТ-команд, так как созданный ИИ код заметно дешевле кода, написанного человеком.
Крупные российские компании, включая «Ростелеком», «Яндекс» и «Сбер», активно внедряют искусственный интеллект в процессы разработки ПО. По данным МТС, уже 8% строк кода в их системах генерируются с помощью ИИ, а к 2027 году эта доля может увеличиться до 25%. Компания проанкетировала более 500 программистов, чтобы составить общую картину использования ИИ-ассистентов для разработки программного обеспечения.
Оказалось, что 69% опрошенных программистов хотя бы раз прибегали к помощи ИИ в работе, 47% из них продолжают обращаться к таким решениям: 38% используют их периодически, а 9% — на постоянной основе. Разработчики пользуются тремя сервисами: ChatGPT, CodeGPT и GitHub Copilot. 58% российских разработчиков используют ИИ-ассистентов для генерации кода по текстовому запросу, 57% — для поиска ошибок и дебаггинга, 43% — для написания текстов, 41% — для автодополнения кода.
«Прежде всего речь идет о решениях, где не требуется высокая производительность, например интерфейс веб-сайтов и мобильных приложений»,— заметил директор по продуктам Servicepipe Михаил Хлебунов. По его словам, в будущем может стать популярна такая специализация, как «архитектор кода». Речь про специалистов, которые будут проектировать внутреннюю систему и внешний вид IТ-продукта, но написание кода полностью делегируют GPT-моделям.
Однако на данном этапе развития генеративных моделей по качеству и безопасности код, написанный ИИ, пока не может конкурировать с кодом, написанным человеком. Вайб-кодинг упрощает разработку, но несет в себе риски наличия уязвимостей и, как следствие, утечки данных. Недавнее исследование ученых из Техасского университета показало, что почти половина LLM ссылаются на фиктивные библиотеки из-за того, что модели придумывают названия на основе шаблонов, а не реальных данных. Эта проблема дает хакерам возможность для реализации разных типов хакерских атак, если разработчики не проверят зависимости должным образом. Для этого достаточно зарегистрировать содержащий вредоносный код пакет с названием, которое выдумал искусственный интеллект. Если разработчик установит такой пакет, вредоносный код проникнет в его систему.
«Вайб-кодинг — крутой инструмент в руках профессионалов, но опасная вещь в руках дилетантов. Опасность заключается в том, что разработчик, который привык собирать продукт из кусков кода, предлагаемых GPT-моделями, не сможет проверить и очистить его от уязвимостей, которые могут привести к взлому системы»,— считает Михаил Хлебунов. «В этом случае защитить инфраструктуру от атак помогут только системы защиты от вредоносных ботов, которые запрещают им сканировать сайты на наличие “дыр” в коде»,— обратил внимание эксперт.
«Использование нейросетей ведет к потере экспертизы,— согласился директор департамента расследований T.Hunter Игорь Бедеров.— Связано это с тем, что разработчики, полагающиеся на ИИ, теряют навыки ручного анализа кода, что усложняет выявление скрытых угроз».
«Использование ИИ при написании кода полностью оправдано только в том случае, если сгенерированный ИИ код всегда находится под контролем программиста»,— добавил руководитель отдела разработки пользовательского интерфейса компании «Некстби» Григорий Голиков. «Несмотря на то что вайб-код пишется быстро, он подходит только для небольших проектов. При достижении определенного размера проекта полагаться только на него нецелесообразно и опасно. Поддерживать такой код сложно, вводить новый функционал и рефакторить код — тоже»,— обратил внимание эксперт.
ChatGPT для ленивых хакеров
Использование ChatGPT и других языковых моделей как инструмента для создания и развития векторов атак было лишь вопросом времени. Возможности, которые дают чат-боты, снижают порог входа в сферу киберпреступности и помогают сокращать расходы.
OpenAI отчитывалась, что в 2024 году предотвратила более 20 масштабных киберопераций, в которых ChatGPT использовался для фишинга и вредоносного кода. Так, группировка SweetSpecter, которая занимается кибершпионажем, использовала ChatGPT для создания фишинговых писем с вредоносными вложениями ZIP. Иранские злоумышленники из Storm-0817 использовали ChatGPT для разработки собственного вредоносного ПО для платформы Android. Приложение позволяло красть списки контактов, журналы вызовов, делать снимки экрана, изучать историю просмотров пользователя и определять его точное местоположение.
«Первое место в рейтинге ИИ-угроз действительно занимает фишинг»,— подтверждает эксперт по информационной безопасности Axenix Евгений Качуров. «У злоумышленника не получится просто попросить ИИ составить фишинговую рассылку, поскольку в самой платформе есть ограничения на такие запросы, но их легко обойти. Кроме того, для эффективной атаки нужно собрать больше информации о жертве: например, о его привычках, увлечениях, страхах. Но это тоже чаще всего не является проблемой: такие данные злоумышленник может спокойно получить из соцсетей. Обогатив модель ИИ этим контекстом, можно составить эффективное фишинговое сообщение»,— рассказал эксперт.
«Нейросети могут генерировать не только убедительные фишинговые сообщения, но и могут помочь с написанием кода для веб-сайтов, которые имитируют официальные сайты компаний»,— заметил ведущий специалист НОЦ ФНС России и МГТУ им. Н. Э. Баумана Николай Калуцкий. «А в случае с написанием кода нейросети могут анализировать существующие образцы вредоносного ПО и генерировать новые варианты, которые сложнее обнаружить»,— добавил он.
Еще один популярный способ использования нейросетей злоумышленниками — генерация аудио- и видеодипфейков. В случае с юрлицами дипфейки используются как один из начальных этапов развития атак, направленных на кражу конфиденциальной информации, денег или получение доступа к внутренним системам.
«Зачастую злоумышленники создают дипфейки глав компаний или линейных руководителей, чтобы убедить сотрудников совершить вредоносные действия: перейти по ссылке, загрузить файл или предоставить служебную информацию»,— рассказал руководитель ИБ-направления «Телеком-биржи» Александр Блезнеков. Причем, по его словам, если в 2024–2025 годах популярным способом атаки были фейковые аудио и видео в мессенджерах, то в скором времени могут появиться новые формы дипфейк-атак, включая имитацию телефонных звонков в реальном времени.
Как победить ИИ
«Однако в данный момент ИИ может выступать лишь в роли помощника — полностью продумать и осуществить атаку он не сможет»,— сказал заместитель директора Центра научно-технологической политики МГУ им. М. В. Ломоносова Тимофей Воронин. «Возможно, что в будущем можно будет говорить о том, что ИИ полностью автоматизирует хакерские атаки, но в таком случае ИИ сможет и в автоматическом режиме заниматься защитой от киберугроз»,— добавил он.
«Минимизировать риски атак с использованием ИИ поможет внедрение этических стандартов использования ИИ, введение ограничений на использование сторонних ИИ-сервисов без проверки их безопасности, мониторинг аномалий в IТ-инфраструктуре в режиме реального времени»,— сказал Игорь Бедеров.
«Для борьбы с ИИ-атаками эффективнее всего запускать собственный или использовать услуги коммерческого центра мониторинга киберугроз SOC (Security Operation Center), механизмы которого анализируют любые действия сотрудников в корпоративной сети, в том числе с файлами»,— считает Александр Блезнеков. «SOC проверяет события безопасности, которые поступают в систему из различных источников, а когда замечает подозрительную активность — принимает меры для предотвращения атаки. Например, в случае запуска вредоносного скрипта учетная запись сотрудника моментально блокируется, а его компьютер изолируется от корпоративной сети и интернета, чтобы собранные макросом данные не могли быть доставлены злоумышленникам»,— сказал эксперт.
«Для защиты от новых угроз нужно нарастить инвестиции в сферу кибербезопасности и популяризировать программы баг-баунти для поиска уязвимостей и частичного предотвращения появления новых киберпреступников»,— добавил Тимофей Воронин.