Цифровой ярлык
Маркировка ИИ-контента — решение с двойным дном
По мере того как искусственный интеллект продолжает развиваться и интегрироваться в различные сферы жизни, его роль в создании контента становится более значимой. Нейросети все чаще используются для генерации видеороликов и изображений. Качество таких материалов уже достаточно высоко, поэтому иногда ИИ-контент может восприниматься как реальный или вовсе использоваться мошенниками.
Руководитель образовательной программы «Искусственный интеллект и моделирование когнитивных процессов в проектировании и разработке информационных систем» НИЯУ МИФИ Роман Душкин
Фото: Кристина Кормилицына / Фотохост-агентство РИА Новости
Руководитель образовательной программы «Искусственный интеллект и моделирование когнитивных процессов в проектировании и разработке информационных систем» НИЯУ МИФИ Роман Душкин
Фото: Кристина Кормилицына / Фотохост-агентство РИА Новости
Маркировка ИИ-контента кажется простым и универсальным решением всех бед. Но так ли это на самом деле? Об этом «Ъ-Науке» рассказывает руководитель образовательной программы «Искусственный интеллект и моделирование когнитивных процессов в проектировании и разработке информационных систем» НИЯУ МИФИ Роман Душкин.
Мировой опыт маркировки
О маркировке заговорили уже достаточно давно, и на сегодняшний день существует несколько ее видов. Один из самых популярных методов — визуальные метки. Так, например, изображения, созданные нейросетями Gemini, Grok, Meta AI и «Шедеврум», содержат видимый водяной знак, который указывает на их генерацию с помощью ИИ. Маркировка также есть в оживших фото от «Алисы AI».
Более передовые методы, такие как «невидимая маркировка», в социальных сетях и мессенджерах все еще находятся в зачаточном состоянии. Ключевой пример — стандарт C2PA (Coalition for Content Provenance and Authenticity). Консорциум разработал технологию, позволяющую «пришить» к файлу данные о его происхождении, какой инструмент использовался и какие вносились изменения. Например, сервис Content Credentials от OpenAI для изображений DALL-E 3 работает именно по этому стандарту. В России над подобными решениями также ведется работа: ИСП РАН при поддержке «Яндекса» разрабатывает отраслевой стандарт для невидимой маркировки ИИ-контента. Однако ключевая слабость текущей реализации, например стандарта C2PA,— уязвимость на этапе распространения. Платформы вроде мессенджеров и социальных сетей могут «вычищать» метаданные, когда сжимают файл при передаче.
Что касается применения маркировки в разных странах, то единого подхода нет. Наиболее жесткая позиция у Китая. С 1 сентября этого года материалы, созданные с помощью нейросетей (тексты, изображения, аудио и видео), должны сопровождаться заметными пометками «сгенерировано AI», а также скрытыми водяными знаками или метаданными. Крупные платформы, включая WeChat, Douyin, Weibo и RedNote, уже внедрили эти требования. Кроме того, пользователей также обязали указывать факт использования искусственного интеллекта при публикации, а за попытку скрыть или удалить маркировку предусмотрена блокировка аккаунта. Целями таких жестких методов являются прежде всего усиление контроля над информационным полем и борьба с дезинформацией. Однако пока рано говорить об эффективности этих мер, а их долгосрочное влияние станет понятно позже.
Например, в странах ЕС обязательной маркировки придерживаются уже давно. Она следует из общеевропейского закона об искусственном интеллекте (EU AI Act), который вступил в силу в 2024 году, о том, что любой сгенерированный контент (дипфейки, синтетические голоса, AI-аватары) должен быть явно обозначен. Отсутствие маркировки считается нарушением. При этом закон неоднократно критиковали как внутри, так и за пределами ЕС за слишком жесткие и многочисленные требования к разработчикам, которые, по мнению критиков, сдерживают развитие технологии. Между тем количество тех же дипфейков в ЕС продолжает неуклонно расти.
В США, в отличие от Китая и ЕС, нет единого федерального закона об обязательной маркировке ИИ-контента. Однако ключевые игроки рынка самостоятельно внедряют ее, чтобы продемонстрировать ответственный подход к развитию своих нейросетей.
В целом подход России к маркировке ИИ-контента пока ближе к американскому: обязательного закона нет, но крупные компании-разработчики предупреждают пользователей о том, что контент сгенерирован. При этом о введении обязательной маркировки у нас говорят уже довольно давно. Иными словами, Россия находится на распутье: следовать китайскому образцу или выбрать более сбалансированный, риск-ориентированный подход, как в США. Чтобы понять, какой путь предпочтительнее, нужно сначала разобраться, на что вообще способна маркировка.
Что маркировка реально может?
Споры вокруг маркировки сосредоточены на вопросе прозрачности. Сторонники этой идеи утверждают, что пользователи имеют право знать, когда они потребляют контент, созданный машинами, а не людьми. Их оппоненты полагают, что маркировка непрактична и не решает ключевых проблем. Чтобы разобраться, нужно рассмотреть все за и против.
Конечно, ключевой плюс маркировки — это прозрачность. Она помогает пользователям принимать более обоснованные решения о потребляемом контенте. Кроме того, требование указывать источник может побудить распространителей контента использовать ИИ более ответственно и гарантировать, что материалы, созданные нейросетью, соответствуют высоким стандартам качества.
Однако главная проблема маркировки заключается в том, что она перекладывает ответственность на «знак», вместо того чтобы предотвращать реальную угрозу. Мошенник никогда не станет добровольно маркировать свой контент, а злоумышленник, умеющий удалять такую метку, с легкостью от нее избавится. Согласно исследованиям, водяные знаки часто удаляются большинством платформ при передаче контента, а метаданные C2PA могут отключаться автоматически. Более того, в некоторых случаях маркировка способна вызвать еще большую путаницу, чем ее отсутствие. Пользователи начинают думать, что помеченный контент автоматически является подозрительным, поскольку он сгенерирован, и, следовательно, немаркированному можно доверять. Но в таком случае отсутствие маркировки становится инструментом, которым могут пользоваться злоумышленники. Еще один существенный минус — потенциальный рост цен на ИИ-продукты. Маркировка ляжет финансовым бременем на разработчиков: нужно будет следить за соответствием новым стандартам, обновлять продукты. Эти издержки в конечном счете лягут на потребителей, что может замедлить развитие технологии, отпугнув от нее тех, кто не готов переплачивать.
Важно понимать: многие материалы, созданные ИИ или с использованием нейросетей (например, для накладывания фильтров на фото или редактирования фотографий), изначально не несут в себе обмана. При этом огромное количество вводящего в заблуждение контента создано людьми без помощи технологий. Бороться нужно с недостоверной информацией и теми, кто ее использует злонамеренно.
Как в итоге поступить России?
Несмотря на кажущуюся привлекательность и простоту, эффективность всеобщей маркировки в борьбе с мошенниками — под большим вопросом.
На данном этапе развития технологий целесообразнее придерживаться риск-ориентированного подхода. Например, маркировать не весь контент подряд, а только в специфических секторах, таких как политическая реклама или новости.
Важно также продолжать дорабатывать методы невидимой маркировки ИИ-контента. Так, решением проблемы удаления метаданных C2PA при передаче файла может стать иная архитектура, при которой цифровой «паспорт» контента хранится не в самом файле, а в защищенном распределенном реестре. Такая инфраструктура — будь то стандарт C2PA с российской криптографией или распределенный реестр сертификатов — дает стопроцентную гарантию для подписанного контента и имеет юридическую силу.
Маркировка не должна восприниматься как основной инструмент борьбы с недостоверной информацией. Некоторые российские компании, например «Яндекс», открыто сообщают пользователям, когда те взаимодействуют с ИИ, и маркируют созданный нейросетями контент, если его происхождение неочевидно. Эти правила закреплены в пользовательских соглашениях. Более того, предложение маркировать сгенерированный контент уже закреплено в Декларации об ответственном использовании и разработке сервисов на основе генеративного ИИ. Ее приняли компании—участницы Альянса в сфере ИИ, среди которых — крупнейшие разработчики этой технологии в России.
Параллельно критически важно повышать цифровую грамотность населения. Любое техническое решение работает только в том случае, если пользователи понимают его принципы и ограничения. Граждане должны научиться критически оценивать любой контент в интернете независимо от наличия маркировки. Вопрос не в том, как обозначить фейк, а в том, как научить людей всегда проверять источники и мыслить самостоятельно. Культура ответственного потребления контента — вот настоящий фундамент доверия к информации в цифровом пространстве.
Стоит также поощрять этичное поведение самих пользователей ИИ, формируя культуру, при которой авторы по собственной инициативе указывают, что их материал был создан искусственным интеллектом.