ИИ против дипфейков

Юлия Пославская о борьбе с мошенниками

Эксперты впервые оценили долю использования мошенниками технологии дипфейка на финансовом рынке. По данным опроса финансового маркетплейса «Выберу.ру» по итогам 2023 года, в 3% случаев мошенникам удалось выманить деньги у граждан с помощью подделки голоса. Причем зачастую это были голоса руководителей или родственников. В 2022 году пострадавшие не сообщали о такой схеме, следует из данных опроса. Об активизации мошенничеств, в которых используется дипфейк голоса, как о новой тенденции, в том числе на российском рынке, уже предупреждали эксперты по кибербезопасности (см. “Ъ” от 25 января).

Юлия Пославская

Юлия Пославская

Фото: Алексей Назаров, Коммерсантъ

Юлия Пославская

Фото: Алексей Назаров, Коммерсантъ

На форуме «Кибербезопасность в финансах» председатель правления ВТБ Вадим Кулик подтвердил, что банк уже наблюдает случаи мошенничества с подменой биометрии и голоса, в том числе через дипфейк. В частности, в ВТБ рассказывали о схеме, когда мошенники используют голосовые сообщения из взломанных аккаунтов, чтобы «втереться в доверие к знакомым жертвы и получить деньги». В Сбербанке также наблюдают подобные случаи, говорит зампред правления кредитной организации Станислав Кузнецов: они «носят единичный характер, но являются реальной угрозой».

Согласно исследованию Positive Technologies, в первой половине 2023 года относительно второй половины 2022 года во всем мире наблюдался значительный рост числа атак с использованием дипфейка. В частности, в Великобритании рост составил 84%, в США — 250%, в Германии и Италии — более чем 300%, во Франции — 500%. Растущая популярность этого вида мошенничества объясняется «доступностью и вариативностью вредоносных ИИ-инструментов на рынке киберуслуг».

Для создания дипфейка уже не обязательно быть большим специалистом и опытным хакером: по словам экспертов, «можно обойтись видео хорошего качества, особенно если речь идет об известных людях». Это недорого стоит и не требует мощного компьютера.

Участники рынка кибербезопасности говорят, что для борьбы с дипфейками необходимо «информировать людей и использовать искусственный интеллект». Однако первый способ, исходя из большого опыта попыток банкиров бороться с мошенниками, выглядит почти безнадежным. Несмотря на рост финансовой грамотности населения, граждане теряют все больше средств. Зато искусственный интеллект, уверяют специалисты, «уже достиг того уровня, когда способен бороться с дипфейками».

Вопрос только в том, кто из банков, кроме крупнейших, может позволить себе такую дорогостоящую технологию. Пока, признал Вадим Кулик, кредитные организации «совсем не готовы» к мошенническим атакам в адрес клиентов с использованием биометрии и дипфейка.

Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...