В минувший четверг Еврокомиссия объявила о мерах по борьбе с дезинформацией в интернете. Теперь противодействие будет осуществляться не только силами европейских властей, но и с помощью профессиональных ассоциаций и ведущих интернет- и технологических компаний. Отдельное внимание уделено манипулятивным дипфейкам (deepfake), с которыми власти ЕС собираются бороться комплексно, привлекая профессионалов индустрии. Распространение дипфейков уже вызвало тревогу среди крупных интернет-компаний и интернет-ресурсов, начавших бороться с ними самостоятельно.
Фото: Denis Balibouse / Reuters
Принятый в четверг европейский Кодекс по борьбе с дезинформацией в интернете является обновленной версией документа, разработанного еще в 2018 году. Он был дополнен с учетом новых технологий и изменений, произошедших за это время на интернет-рынке. Основными задачами Кодекса являются «противодействие инструментам монетизации недостоверной информации, обеспечение прозрачности политической рекламы в интернете, создание инструментов, при помощи которых сами пользователи смогут противодействовать дезинформации в интернете, и борьба с фейковым или манипулятивным контентом, а именно использованием фейковых аккаунтов, ботов или вредоносных дипфейков, распространяющих дезинформацию».
«Дезинформация является одним из способов вторжения в наше цифровое пространство, воздействующим на нашу повседневную жизнь, — заявил глава комиссии по внутренним рынкам ЕС Тьерри Бретон. — Интернет-ресурсы должны активно с этим бороться, особенно в сфере монетизации.
Крупнейшие участники рынка, которые будут систематически нарушать или не соблюдать требования Кодекса, могут подвергнуться наказанию или оборотным штрафам до 6% от их глобальной выручки».
Новую редакцию Кодекса уже подписали 34 ведущие интернет- и технологические компании, такие как Google, Twitter, Meta (признана экстремистской и запрещена в РФ), TikTok, Vimeo, Microsoft, Adobe, а также профильные ассоциации (Европейская ассоциация коммуникационных агентств, Бюро интерактивной рекламы, Всемирная федерация рекламодателей и др.).
Проблема распространения вредоносных дипфейков настолько встревожила крупные интернет-компании и ресурсы, что они начали самостоятельно бороться с ними. В начале июня стало известно, что Google закрыла возможность создавать проекты с использованием ИИ-технологий deepfake на своей платформе для разработчиков Colab. «Мы регулярно наблюдаем за ситуацией на наших площадках в поиске нарушений, которые противоречат нашим принципам использования ИИ, — ответили тогда на запросы СМИ представители Google. — В результате таких проверок и анализа дипфейки действительно были запрещены на площадке Colab».
Первые дипфейки появились еще в 2016–2017 годах. Термин deepfake образовался из двух понятий: deep learning — «глубинное обучение нейросетей» — и fake — «фейк, подделка»). Deepfake-видео создаются при помощи переноса лица и мимики реальной персоны в новое видео с другим человеком. Берется ряд видео с известным человеком, например, Томом Крузом. Специальная нейросеть изучает его мимику, после чего снимается новое видео с другим актером или обычным человеком, на которого лицо Круза переносится как живая маска. Полученное видео можно редактировать и подтягивать к более реалистичному результату. В итоге получается видео, на котором человек с наложенным лицом Тома Круза делает или говорит то, чего Круз на самом деле никогда не делал или не говорил.
За несколько лет технологии настолько усовершенствовались, что видео с дипфейками стали все более реалистичными и трудноразличимыми невооруженным взглядом. С 2019 по 2021 год число таких высококачественных видео в интернете выросло с 14 тыс. до 145 тыс.
Видеоролики с использованием технологий deepfake уже стали использоваться в кино и рекламе. Нередко их создают разработчики или обычные пользователи ради развлечения и/или запуска вирусных видео, на которых можно подзаработать.
Впрочем, все чаще дипфейки упоминаются в контексте кампаний по дезинформации — например, создания роликов с фальшивыми выступлениями политиков, для мошеннических схем (шантаж, порнография) и т. д. В конце 2019 года эксперты исследовательской компании IntSights включили дипфейки в перечень наиболее значимых киберугроз 2020 года.
По оценкам Forrester Research, ущерб от мошеннических схем с использованием дипфейков к концу 2020 года составляет около $250 млн.
На минувшей неделе стало известно, что администрация популярного интернет-ресурса Reddit заблокировала и удалила крупное сообщество SFW, в котором генерировались дипфейки, в основном для роликов порнографического содержания. В группе состояло почти 20 тыс. пользователей Reddit. В последнее время администраторы ресурса увидели, что она превращается в доску объявлений, на которой размещались предложения и заявки на изготовление дипфейков на известных лиц или просто на знакомых участников этой группы. По данным СМИ, именно такой неформальный рынок по купле-продаже дипфейков стал последней каплей, которая переполнила чашу терпения администрации Reddit.
Эксперты полагают, что вступление в борьбу с дипфейками крупных интернет-корпораций может серьезно осложнить распространение такого контента в интернете. «Когда речь заходит именно о дипфейках, самая большая проблема — этичность их использования,— заявил в интервью TechCrunch эксперт Саарского университета (Саарбрюкен, Германия) Вагрант Гаутам.— Это похоже на огнестрельное оружие или хлор. Например, хлор может использоваться как для дезинфекции, так и для производства химического оружия. Поэтому, когда мы говорим о хлоре, мы не говорим о том, какая плохая наука (химия.— "Ъ"), а говорим о Женевском протоколе, который запрещает применение на войне удушающих, ядовитых или других подобных газов и бактериологических средств. К сожалению, сейчас у нас нет подобной конвенции в области технологий или ИИ. Но такие крупные компании, как Google, имеют техническую возможность бороться с дипфейками, которые используются для распространения дезинформации».