Коммерсантъ FM

На контентном примере

Соцсетям могут предложить самостоятельно бороться с дипфейками

Главный радиочастотный центр Роскомнадзора (ГРЧЦ) предлагает соцсетям самим превентивно выявлять и блокировать резонансные дипфейки до проверки достоверности информации. Участники рынка отмечают, что технической возможности точно определить, какой контент создан при помощи ИИ, нет, а ошибки в решениях ведут к росту споров как с пользователями, так и брендами.

Фото: Дмитрий Азаров, Коммерсантъ

Фото: Дмитрий Азаров, Коммерсантъ

ГРЧЦ предложил социальным сетям самостоятельно выявлять и блокировать дипфейки, рассказал заместитель начальника отдела специальных проектов и академических программ Научно-технического центра ФГУП ГРЧЦ Станислав Махортов на состоявшемся в апреле IV Форуме «Технологии доверенного искусственного интеллекта».

«Например, реализовать на законодательном уровне инициативу контроля и блокировки сообщений, которые приобретают широкую популярность в моменте. У них распространение идет со скоростью большей, чем у инфоповодов, даже если последние обладают статусом "горячих"»,— отметил господин Махортов. Среди других предложений, о которых он сообщил, создание базы технологических угроз для просвещения населения и технологических решений для обмена информацией между ведомствами и бизнесом, а также введение маркировки сгенерированного контента до его распространения.

Дипфейк — технология синтеза контента, основанная на машинном обучении и искусственном интеллекте. Она позволяет накладывать фрагменты контента на исходное изображение, подменяя лицо и голос на видео или звуковой дорожке.

В Роскомнадзоре пояснили “Ъ”, что регулирование дипфейков должно основываться на понятных, открытых и реализуемых возможностях их оперативного выявления и прекращения распространения. «Как один из вариантов реализации — собственная возможность социальных сетей контролировать быстрое распространение у них того или иного контента». Одновременно социальные сети должны иметь право приостановить распространение материала до проверки достоверности информации у доверенного источника, в том числе лица или организации, фигурирующих в контенте, добавили в службе.

В 2023 году Роскомнадзор запустил IT-систему поиска запрещенного контента «Окулус». Она распознает «изображения и символы, противоправные сцены и действия, анализирует текст в фото- и видеоматериалах». Также действует система «Вепрь» для выявления угроз в информационной сфере и прогнозирования рисков их возникновения.

Собеседник “Ъ” в крупной IT-компании отмечает, что на текущем количестве видеороликов и изображений в соцсетях нет технической возможности определять, какой контент создан при помощи ИИ. VK, Rutube и «Яндекс» отказались от комментариев.

Требуется большая детализация и экспертиза от регулятора, чтобы определять, что относится к запрещенному или требующему маркировки контенту, на примере конкретных кейсов в части сгенерированного медиаконтента, рассуждает гендиректор компании «Социальная лаборатория» Наталия Тылевич. Запрещать сами технологии непродуктивно. В ручном режиме решить задачу сложно, поэтому потребуется применение ИИ. Потенциал создания системы по выявлению такого контента на базе существующих решений есть, но полностью автоматизировать процесс не получится, считает она.

ИИ-контент и дипфейки можно распознавать через комбинацию методов: анализ изображения, видео или аудио, поиск цифровых водяных знаков, проверку метаданных и поведенческий анализ массового распространения, говорит партнер инвестиционно-технологической компании Zarya Ventures Александр Пономарев. «Точность в существующих реалиях далека от 100%: современные генеративные модели быстро обходят детекторы, а реальные фото и видео могут ошибочно попадать под блокировку. Для соцсетей это реализуемо как система временной приостановки охвата до проверки, но это дорого и рискованно и в то же время ведет к увеличению юридических споров с пользователями и брендами»,— добавляет он. Реалистичным сценарием эксперт называет создание гибридной системы с применением ИИ-фильтров, маркировкой подозрительного контента и ручной верификацией.

Екатерина Фадеева