Отпетые мошенникИИ

Гайд по махинациям с нейросетями

Нейросети развиваются на наших глазах, но помимо плюсов (создание уникальных иллюстраций, обучение иностранным языкам и др.) прогресс открывает для преступников все больше способов обмана. Технология позволяет с помощью ноутбука за короткое время выманить деньги или нужную информацию, у компаний в том числе. «Ъ» разобрался, какие мошеннические методы сейчас в ходу и как защитить свои средства и бизнес.

Фото: Ирина Бужор, Коммерсантъ

Фото: Ирина Бужор, Коммерсантъ

Махинации со звуком

Вымогатели начали использовать искусственный интеллект (ИИ) для подделки голосовых сообщений в мессенджерах и соцсетях. Содержание стандартное: просят перечислить деньги. Но теперь в аудиоформате. Мошенники взламывают аккаунт (обычно с помощью фишинга). В этом году активно «угоняют» аккаунты в Telegram. Преступники создают с помощью нейросетей новые голосовые сообщения на основе старых. Человек, который пытается вернуть доступ к аккаунту, оказывается под лавиной спам-звонков и СМС, чтобы у него не хватило времени на восстановление профиля.

Варианты мошенничеств могут быть разными. К примеру, ребенку не хватает на подарок другу, в этом случае для родителей создают легенду, что телефон сел. Это объясняет, почему деньги нужно перевести на чужой счет.

Фейковое голосовое сообщение может оказаться не только в переписке тет-а-тет, но и в групповых чатах. Дополнительно злоумышленники отправляют фото банковской карты с именем и фамилией, часто они имеют на руках актуальные паспортные данные владельца аккаунта.

Еще один сценарий с применением аудио — звонок от ИИ под видом друга или родственника, которому срочно нужны деньги из-за ДТП, например, или на лекарства.

Пожалуй, самая популярная на данный момент схема для кражи денег компании — звонок начальника, который просит перевести деньги организации на какой-то счет, отправить куда-то закрытую информацию. Возможен вариант с «прогревом»: фейковый босс рассказывает, что скоро позвонят чиновники / силовики и нужно выполнить их указания, подкрепляет это все фальшивыми документами (про них расскажем дальше). При схеме fake boss иногда встречается даже подмена номера, но чаще злоумышленники пользуются мессенджерами.

В прошлом году McAfee провела опрос среди 7 тыс. человек из разных стран. Оказалось, что 25% опрошенных знакомы с голосовым ИИ-мошенничеством, а 77% благодаря копированию голосов лишились средств.

В McAfee объяснили, что похитить голос легко: хватит аудиосемпла длительностью в три секунды, чтобы воссоздать голос почти полностью. В Роскачестве считают, что нужна лишь 20-секундная запись разговора.

Как распознать: обращать внимание на наличие пауз, вздохов, покашливаний, на интонацию. У робота речь будет вылизанной, четкой. Мошенники считают, что жертва всего этого не заметит из-за паники.

Что делать: сбросить вызов и перезвонить человеку, который якобы просит помощи. Лучше это делать не в мессенджере.

Фишинг

Чтобы украсть аккаунт и получить доступ к старым голосовым сообщениям, в ход идет фишинг: рядовых пользователей атакуют с помощью сообщения с просьбой проголосовать за знакомого ребенка на танцевальном или другом конкурсе. Также создаются каналы со ссылками на фишинговые ресурсы, куда злоумышленники добавляют жертв, объясняли ранее в ИБ-компании F.A.С.С.T.

Организации атакуют в большинстве случаев через электронную почту, следует из отчета Positive Technologies. «Фишеры» чаще всего штурмуют госучреждения (на них приходится почти половина от всех атак), 19% атак терпят оборонные предприятия, 14% — организации в сфере науки и образования. ИИ позволяет быстро сформировать убедительное сообщение, чтобы сотрудник организации кликнул на ссылку / открыл файл.

В письмах могут быть поддельные акты сверки, счета фактур и другое в виде вложений или ссылок. С их помощью злоумышленники и крадут информацию. В Positive Technologies отмечали, что во время целевых атак на медицинские, финансовые, промышленные и телеком-компании «документы от подрядчиков» используют чаще других уловок.

Как распознать: приложенные файлы и ссылки увеличивают вероятность того, что сообщение фишинговое; срочность вопроса (нужно пройти по ссылке как можно скорее), слипшиеся между собой слова и ошибки (они нужны, чтобы проскочить через спам-фильтры) — все это обычно указывает на фишинг.

Что делать: компаниям — проводить обучение с симуляцией фишинговых атак, своевременно обновлять ПО, использовать защитные решения. Пользователям — не кликать на подозрительные ссылки для голосования, установить двухфакторную аутентификацию в мессенджерах.

Фото- и видеообманы

Появился новый вариант махинаций — поддельные видеосообщения-кружки в Telegram. В BI.ZONE отмечают рост таких случаев. «Чтобы получить доверие жертвы, мошенники отправляют в чат с ней созданное с помощью ИИ видео, в котором якобы фигурирует знакомый жертвы, чей аккаунт был взломан. Большинство пользователей ранее не сталкивались с подобными схемами и подсознательно доверяют видеозаписям, на которых изображены знакомые им люди»,— говорит Алексей Лужнов, руководитель управления по противодействию мошенничеству BI.ZONE.

Специалисты фиксировали случаи создания поддельных историй в Telegram с участием пользователей, чьи аккаунты опять же были скомпрометированы. Часто злоумышленники отправляют жертвам фальшивые фотографии и документы, чтобы подтолкнуть к переводу средств, добавляет Алексей Лужнов.

В прошлом году компания «Код безопасности» обнаружила сценарий с поддельными фото: киберпреступники создавали фейковые фотографии интимного характера (в основу брали снимки из соцсетей). Жертву шантажировали поддельными фото и требовали заплатить «выкуп».

В случае с бизнесом возможны обманы с применением видео-конференц-связи. В качестве примера можно привести нашумевший кейс с крупной компанией в Гонконге, которая потеряла $25,6 млн: преступники сымитировали групповой дипфейковый видеозвонок с участием якобы постоянного клиента компании. Он запросил несколько транзакций на разные счета, сотрудник финансового отдела поверил «топ-менеджерам» и перевел деньги. Для убедительности мошенники использовали поддельные документы, которые получил обманутый.

Как распознать:

  • Можно отдать видео / фото на проверку нейросети, возможно, она найдет недочеты в образе и укажет на них.
  • Проанализировать мимику, взгляд (в случае с дипфейком он может быть стеклянным), речь (опережает ли / отстает ли от движений губ).
  • Плохое качество ролика может говорить о том, что это подделка.

Что делать: всегда перезванивать тому, кто просит предоставить деньги или рабочую информацию. Заранее вместе с друзьями и семьей (можно даже с начальством) придумать кодовые слова или фразы, которые подтвердят, что вы — это вы. А в случае с шантажом необходимо сразу обращаться к правоохранителям.

«У бизнеса больше возможностей для обеспечения безопасности, например требовать электронную подпись для всех срочных запросов на перевод денег свыше заданной суммы и использовать корпоративные средства безопасности для обеспечения защиты от вредоносного ПО, мошеннических писем и подозрительных веб-сайтов»,— рассказал Владислав Тушканов, руководитель группы исследований и разработки технологий машинного обучения в «Лаборатории Касперского».

Документам делают копии

В этом году заработал ИИ-сервис OnlyFake, с помощью которого можно генерировать поддельные изображения паспортов, водительских прав 26 стран (российские документы в том числе). За $15 можно получить одну подделку. В сочетании с украденным аккаунтом в мессенджере с помощью таких инструментов преступники могут брать микрокредиты на жертву, оформлять фирмы-однодневки и др. Для организаций потенциально это может стать ощутимой проблемой, хотя пока не распространено так, как аудиоклонирование или поддельные сообщения-кружочки.

Как распознать: вглядеться в скан паспорта внимательно, обратить внимание на фото (плохое качество = плохой знак), мелкие искажения, шрифт.

Что делать: при сомнениях нужно попросить сфотографироваться с паспортом в разных ракурсах, показать другие страницы с пропиской, семейным положением и др. Это не заменит офлайн-проверку, но может озадачить мошенников, поскольку у них не окажется готовых изображений остальных страниц документа. Другой вариант — внедрить решение, которое защитит организацию от поддельных документов. Такое, например, разработала компания Smart Engines (опять же на основе ИИ).

Что дальше?

В будущем специалисты ожидают совершенствования мошеннических схем, в том числе и с подделкой видео при звонках в мессенджерах. К таким методам мошенники могут прибегнуть, когда конверсия от других видов атак начинает снижаться, хотя это и потребует больше усилий и ресурсов для реализации, уверен Алексей Лужнов. Уже сейчас возможно создавать дипфейки в режиме онлайн (пока еще очень низкокачественные), отмечает Владислав Тушканов из «Лаборатории Касперского»: «Это демонстрируют, например, фильтры для платформ видеоконференций, дающие возможность примерить маску знаменитости».

Хотя технологии развиваются и в будущем качество таких фейков будет расти, их создание — все еще сложная работа как с технической, так и креативной точки зрения, а методы защиты от мошеннических схем, в которых они могут использоваться (перепроверка информации, критический подход), остаются теми же, считает эксперт.

В BI.ZONE полагают, что с развитием технологий расширяется спектр атак на российский бизнес. Чаще всего жертвами становятся компании со слабо выстроенными процессами защиты, поскольку при дополнительных проверках факт мошенничества становится очевидным. Чтобы обеспечить безопасность, следует провести аудит на предмет устойчивости процессов к мошенничеству, а также использовать современные системы, защищающие от него, убежден Алексей Лужнов.

Анна Ганжа

Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...