Лицо без лица

В скором времени на смену атакам с помощью фейковых аудио и видео в мессенджерах придет новая форма дипфейк-атаки

По мере развития генеративных технологий дипфейки становятся системной угрозой как для бизнеса, так и для частных пользователей. Так, по данным BI.ZONE, число инцидентов с использованием дипфейков в 2024 году выросло в годовом выражении на 350%, а количество фишинговых ресурсов, использующих видео- и аудиоподделки, увеличилось на 200%. Рост также подтверждает и руководитель ИБ-направления «Телеком биржи» Александр Блезнеков: количество атак год к году могло увеличиться на 20–30%.

Фото: Игорь Иванко, Коммерсантъ

Фото: Игорь Иванко, Коммерсантъ

Такой взрывной рост атак объясняется в том числе доступностью инструментов: технологии искусственного интеллекта удешевляют и упрощают производство реалистичных подделок, говорит Блезнеков. «Для генерации дипфейка достаточно фотографии либо короткого фрагмента видео- или аудиозаписи»,— добавил руководитель направления AntiFraud компании BI.ZONE Алексей Лужнов.

Чаще всего от таких атак страдают сотрудники крупных и средних компаний, говорит Лужнов. По данным BI.ZONE, до 5% работников организаций в 2024 году сталкивались с фальшивыми аудио и видео от имени руководства. В случае с юрлицами дипфейки используются как один из начальных этапов развития атак, уточняет господин Блезнеков: например, администратору в мессенджере может прийти голосовое сообщение якобы от гендиректора с просьбой выгрузить информацию из базы данных и отправить в чат.

«В случае с юрлицами такие атаки менее эффективны, поскольку пресекаются посредством центров мониторинга киберугроз SOC (Security operation center),— говорит Блезнеков.— Однако дипфейки успешно используются при атаках через подрядчика. Благодаря социальной инженерии злоумышленник может получить доступ в его сеть и в дальнейшем проникнуть в целевую инфраструктуру и, оставаясь незамеченным, развивать свою атаку».

Для простых пользователей чаще всего угрозой становятся подделки «от имени» якобы близких или знакомых, продолжает Блезнеков. С ним согласен и заместитель директора Центра научно-технологической политики МГУ Тимофей Воронин: «Дипфейки могут быть самыми разными: голосовое сообщение или видео от родственника или знакомого, которому необходима денежная сумма, или видеозвонок от “сотрудника” структуры, что должно сразу насторожить».

По словам Лужнова, ущерб от таких атак может исчисляться миллиардами: так, потери пользователей в России могут составлять до 1,1 млрд руб. ежегодно, а общемировой показатель может быть еще выше и доходить до $10 млрд. Аналитик Positive Technologies Роман Резников считает, что ущерб от дипфейков «продолжит расти, поскольку технология становится убедительнее и доступнее». Это мнение разделяет и руководитель направления исследования данных «Лаборатории Касперского» Дмитрий Аникин: «Сейчас потенциальная угроза появляется для каждого».

Насколько может увеличиться этот ущерб, зависит от множества факторов: уровня осведомленности пользователей, доступности защитных решений и — что особенно важно — от развития самих технологий создания дипфейков. Ведущий аналитик компании F6 Евгений Егоров обращает внимание на то, что дипфейки становятся более совершенными и убедительными за счет развития ИИ-инструментов, повышения их доступности, в том числе через Telegram-боты. «Сейчас мы видим три основные сферы использования дипфейков: мошенничество, распространение дезинформации и ложное трудоустройство — и все они по-своему представляют большую опасность»,— подчеркивает он.

«Если в 2024–2025 годах популярным способом атаки были фейковые аудио и видео в мессенджерах, то в скором времени ожидается появление новых форм дипфейк-атак, включая имитацию телефонных звонков в реальном времени, что значительно усложнит распознавание мошенничества»,— говорит господин Блезнеков. Егоров уточняет, что такие звонки уже используются: «Они звонят жертвам через мессенджеры в режиме реального времени от имени сотрудников силовых структур и ведут живой разговор в образе, созданном с помощью видеодипфейка».

Набирает обороты и дезинформация. «Подделки уже широко применяются для очернения конкурентов по всему миру во время политической борьбы»,— отмечает господин Резников. Он предупреждает: «В будущем мы можем встретить схемы с масштабными целями — например, провоцирование локальной паники или резкого вывода средств из банков».

Особую тревогу также вызывают атаки через поддельные видеособеседования. «Киберпреступники, подделывая голос и видео, проходят удаленные собеседования для внедрения в штат атакуемой компании»,— говорит Резников. Егоров конкретизирует: «Если злоумышленник получает возможность трудоустроиться под фальшивой личностью, это создает угрозу утечки данных, шифрования баз с целью вымогательства или прямых диверсий».

Нельзя не учитывать и воздействие дипфейков на финансовые рынки. BI.ZONE прогнозирует: «Использование дипфейков для манипуляций в политическом и финансовом поле, например через ложные заявления от лица политических деятелей и топ-менеджмента компаний, может оказывать влияние на котировку акций и курсы валют».

Однако возможным решением проблемы может стать новая антифрод-платформа для противодействия кибермошенничеству, создание которой предполагается в рамках нацпроекта «Экономика данных и цифровая трансформация государства». По словам заместителя министра цифрового развития Александра Шойтова, это будет единый центр противодействия мошенничеству, где все участники и их решения по безопасности будут объединены в одну систему.

Помимо этого, для граждан появится отдельное приложение, в котором будет собрана информация о возможных схемах и попытках мошенничества, рассказал он. Также в нем будет «красная тревожная кнопка» для оперативного взаимодействия с ведомствами и участниками рынка, уточнил замминистра.

Мария Орбелиани