Нейросети вплетают в атаки
Как мошенники используют ИИ и участится ли число киберпреступлений
Хакеры стали чаще использовать искусственный интеллект для кибератак. Об этом сообщили в Anthropic, которая разрабатывает модель Claude Opus. По словам представителей компании, их ассистента впервые использовали для полной автоматизации атаки на 17 организаций, включая больницы и экстренные службы. Искусственный интеллект сгенерировал тексты с требованием о выкупе. Его размер варьировался от $75 тыс. до $500 тыс. в зависимости от платежеспособности жертв, которую тоже проанализировал Claude Opus. Кроме того, накануне IT-компания ESET обнаружила первый компьютерный вирус, который использовал искусственный интеллект.
Фото: Евгений Разумный, Коммерсантъ
Фото: Евгений Разумный, Коммерсантъ
Как именно технология помогает хакерам? Эту тему “Ъ FM” обсудил с экспертом по нейросетям сервиса «Битрикс-24» Александром Сербулом: «Сейчас чтобы что-то взломать, нужно много пробовать, на это не хватает времени. Анализ системы, предыдущих затрат, сравнение возможностей системы с атаками и выработка рекомендаций, в какую точку бить. Все современные системы защиты, вся криптография базируется на том, чтобы перебирать значения. А нейросеть может задействовать именно глубокие LLM.
Плюс LLM отлично генерируют коды, вирусы, сигнатуры. То есть антивирус добавил сигнатуру, они взяли, чуть-чуть поменяли ее, сгенерировали новый код с помощью нейронки.
Только сейчас нейросети стали работать с адекватным качеством, раньше они делали много ошибок. Сейчас я активно пользуюсь ИИ, чтобы получить выжимку из какой-то информации, это освобождает мне несколько часов в день. При этом мы не можем контролировать нейросети, как и криптовалюты и VPN, потому что технически это невозможно. Мы можем только попытаться ограничить эту работу в каком-то допустимом порядке. Люди будут использовать эти инструменты дальше, нужно с этим научиться жить. Тем не менее LLM могут применять и в кибербезопасности, но только для защиты. То есть можно получить рекомендации по защите. Например, вы задаете вопрос: какой софт использовать для нового сервера для защиты от перебора паролей? Нейросетка даже сейчас дает достаточно качественный ответ. Если в компании нет эксперта, вы можете сделать запрос нейросети».
Впрочем, компьютерный вирус, который обнаружила компания ESET, не был полностью автоматизирован. Вредоносную программу внедрили в систему вручную, и только потом она с помощью ChatGPT от OpenAI сама создала и активировала код для дальнейшего взлома данных пользователя. Об этом “Ъ FM” рассказала ведущий эксперт компании Kaspersky GReAT Татьяна Шишкова: «Нейросеть генерирует такую программу, используя огромную базу существующих в открытом доступе программ. При этом в нейросетях существуют ограничения на их использование во вредоносных целях, но злоумышленники находят лазейки для их обхода.
Использование искусственного интеллекта для разработки вредоносных программ в последний год набирает обороты, мы ожидаем, что их будет появляться все больше, поскольку такой подход позволяет злоумышленникам значительно сократить время на разработку и снижает порог вхождения в индустрию. Однако код, сгенерированный нейросетью, часто содержит ошибки, поскольку представляет собой, по сути, сборную солянку из других программ. Например, под разные операционные системы. Так что на данный момент злоумышленники не могут полностью полагаться на новую технологию в разработке».
Специалисты по информационной безопасности могут столкнуться с реальной проблемой, если хакеры начнут применять искусственный интеллект массово, говорит бизнес-руководитель департамента киберразведки компании F6 Евгений Чунихин: «Надо в первую очередь понимать, что такое искусственный интеллект. Это нейронка, которая проделывает большое количество работы по инициализации атаки, ее завершению, в целом взлому и так далее. Сейчас мы наблюдаем большое количество атак с применением элементов ИИ. Многие задачи, которые раньше злоумышленники решали руками, сейчас отданы на реализацию ChatGPT, DeepSeek и так далее. Недавно была новость, связанная с вредоносным программным обеспечением, которое, по сути, имело внутри модуль ChatGPT, но это не совсем история про искусственный интеллект.
Единственная проблема, может быть, для мира информационной безопасности — это массовость этих атак.
Есть злоумышленники, которым ИИ облегчает работу по инициализации, блокировке, нагрузке трафика. Но если мы говорим про злоумышленников, которые работают именно по государственному сектору, промышленному сектору, они используют сложносоставные атаки. В их работе история с ИИ достаточно нетривиальная. Это очень сложный на самом деле механизм, многоэтапный, поэтому здесь нейросети места, скорее всего, не будет».
В компании Anthropic ожидают, что все больше хакеров будут использовать искусственный интеллект для атак. Там сообщили о еще одном киберпреступнике, который пытался взломать системы защиты с целью вымогательства. Правда, попытка оказалась не такой успешной, как в первом случае: начинающий хакер полностью зависел от ответов модели Claude Opus и не смог в полной мере реализовать свой замысел.
С нами все ясно — Telegram-канал "Ъ FM".