Мошенники сработались с ИИ

Почему возможен кризис из-за развития нейросетей

Высококлассные дипфейки, многомиллиардный ущерб и расцвет мошенничества — как рассказали “Ъ FM” эксперты по кибербезопасности, кризис из-за развития нейросетей действительно возможен. Ранее об этих опасениях заявил генеральный директор Open AI Сэм Альтман. По его словам, сами IT-компании к этому кризису и волне мошенничества непричастны. Некоторые банки до сих пор используют так называемый отпечаток голоса для подтверждения личности, подчеркнул Альтман. Но злоумышленники продвинулись намного дальше простого клонирования. По данным платформы Resemble AI, в первом квартале 2025 года мировые финансовые потери от мошенничества с использованием дипфейков превысили $200 млн.

Фото: Евгений Павленко, Коммерсантъ

Фото: Евгений Павленко, Коммерсантъ

Но пока дипфейки не настолько качественные, чтобы рядовые пользователи могли принять их за настоящих людей, уверен аналитик SearchInform Максим Мостовой. Впрочем, если речь идет о точечной атаке на топ-менеджера, то схемы могут быть намного сложнее, считает собеседник “Ъ FM”: «Кризис еще не наступил, он только на подходе. Количество дипфейков растет в каких-то странах на тысячи процентов, у нас в России пока все не так плохо, а создавать дипфейки сложно.

За последние пару лет большое количество мошенников получили доступ к таким инструментам. В даркнете злоумышленники продают уже готовые наборы для создания дипфейков, доступ к программному обеспечению и инструкции, как им пользоваться. Создавать дипфейки может почти что любой желающий, и мировые банки принимают это во внимание. И, например, если ранее требовалось просто предоставить фото документа, то сейчас нужно сделать селфи рядом с ним или снять короткое видео, в котором нужно покрутить головой, слева направо. Необходимо ли специальное ПО, чтобы отличить дипфейки от настоящих видео? Обычному человеку не нужна никакая программа, атака на него вряд ли будет целевой, если он не топ-менеджер крупной компании. В большинстве своем фейки можно определить по контексту. До того, как получить его, всегда поступает какое-то сообщение, звонок. Например: "попал в аварию, срочно нужны деньги, переведите, пожалуйста".

Легче дело обстоит с видеоконтентом. Нейросети не всегда понимают границы, до которых, так скажем, "натягивать" лицо другого человека.

И можно по краям, где заканчивается лоб и начинаются полосы, определить некоторые "гличи", неровности. Плюс нейросети любят дорисовывать и пририсовывать людям зубы, когда те говорят, то есть условно сначала зубы были в одном месте, потом переехали на пару сантиметров вправо. Что-то схожее можно сказать и про растительность на лице».

С помощью поддельных голосовых сообщений и видео, мошенники гонятся не только за большими деньгами, но и за личной репутацией и психическим благополучием жертвы, добавляют IT-эксперты. В июле в Соединенных Штатах злоумышленники использовали искусственный интеллект, чтобы выдать себя за госсекретаря Марко Рубио. Они связались от его имени как минимум с тремя министрами, членом Конгресса и губернатором, с целью получить доступ к секретным данным. По словам гендиректора Open AI Сэма Альтмана, опасения вызывают не только дипфейки, но и более мощные угрозы. Например, преступники могут атаковать энергосистемы или попытаться создать биологическое оружие. Есть ли механизм защиты от этих рисков?

Директор компании «IT-Резерв» Павел Мясоедов объясняет, что будущее искусственного интеллекта слишком непредсказуемо, чтобы можно было выстроить надежную систему регулирования: «Если мы посмотрим на официальные цифры, то по оценкам Сбербанка и Центробанка, в 2024 году в России преступлений с использованием искусственного интеллекта осуществлено больше чем на 150 млрд руб. В мире объем ущерба еще значительнее. В Америке речь идет уже о сотнях миллиардов долларов. Темпы и объемы этих схем растут с каждым годом. И связано это на самом деле с тем, что искусственный интеллект прекрасно решает те проблемы, в которых требуется какая-либо автоматизация. То есть, например, креативные задания ИИ выполняет очень посредственно. Когда нужно найти решение, но какие-то аналоги происходили до этого, то он отлично анализирует эти старые массивы информации. То есть если раньше преступники обзванивали людей буквально вручную, то сейчас они все чаще опираются на своего рода чат-ботов, на различных роботов, которые ведут диалог с жертвой самостоятельно.

Регулирование искусственного интеллекта — это пока абстракция.

Создаются комитеты, в некоторых из них, в том числе участвует моя компания и я лично. Никто до конца не понимает, как он будет развиваться в будущем. То есть понятно, что автоматизировать процессы ИИ сможет очень хорошо. Да, он будет вытеснять с рынка труда какие-то базовые должности, но насколько он будет решать экзистенциальные наши вопросы? Наверное, в ближайшее время пока нет. То же самое и с мошенниками, он не ответит преступнику, как ему украсть деньги».

В прошлом году сотрудник крупной компании из Гонконга перевел около $26 млн финансовому директору. Его странная просьба и большая сумма трансакции вызвала подозрения, но все сомнения развеялись после видеоконференции, на которой он узнал коллег и руководителя. Через неделю выяснилось, что все участники этой конференции были дипфейками.

В начале июля британец перевел деньги поддельной Дженнифер Энистон, которая попросила его оплатить подписку Apple. А в мае гражданку Аргентины на $13 тыс. «Джордж Клуни», который общался с ней тепло и намекал на отношения.

В конце июня пенсионер из Москвы передал неизвестным около 7 млн руб. Как писали СМИ, мужчине поступил видео-звонок якобы из мэрии города.


С нами все ясно — Telegram-канал "Ъ FM".

Анна Кулецкая