ИИ-контент ждет маркировка

Как ГД предлагает защищать пользователей от фейков

В Госдуме предложили маркировать контент, созданный искусственным интеллектом. Парламентарии уверяют, что основная цель инициативы —защита граждан от фейков и изображений, которые сложно отличить от реальных материалов. Нужны ли потребителям информации такие обозначения? Подробности — в материале Леонида Пастернака.

Фото: Антон Великжанин, Коммерсантъ

Фото: Антон Великжанин, Коммерсантъ

Впервые тему маркировки контента, созданного искусственным интеллектом, в октябре поднял спикер Госдумы Вячеслав Володин. Он отметил, что нейросети постепенно захватывают инфополе, а отличить реальный материал от ИИ уже почти невозможно. Согласно законопроекту, который вскоре рассмотрит парламент, каждое видео и фото за авторством ИИ должно иметь особую отметку. Она будет содержать информацию о факте использования искусственного интеллекта, а также указывать владельца материала и дату его создания.

Регулирование такого контента действительно необходимо для защиты потребителей, отмечает партнер компании Digital & Analogue Partners Юрий Брисов: «Маркировка контента, созданного искусственным интеллектом, — международная практика. Где-то она существует на уровне закона, где-то — на уже сложившихся этических правилах ведения бизнеса. Потому что основа потребительской коммуникации — это чистота и доступность сообщения, поэтому если сообщение, которое видит потребитель, оно непонятно, неясно, запутано, то считается, что уже какая-то проблема в лоне права потребителей».

Помимо прочего, депутаты предлагают дополнить административный кодекс новой статьёй о наказаниях за нарушение требований к маркировке видео. Граждан будут штрафовать на сумму от 10 тыс. руб. до 15 тыс. руб., должностных лиц — от 100 тыс. руб. до 200 тыс. руб., юрлиц — от 200 тыс. руб. до 500 тыс. руб. Эффективность таких мер вызывает вопросы, говорит журналист платформы «Неискусственный интеллект» Илья Склюев: «С точки зрения государства было бы разумно создать агрегатор таких меток для автоматической проверки любого сгенерированного контента. Что касается обязательной маркировки в лоб, без подобной технической базы она будет бесполезна. Дипфейки в соцсетях и звонки злоумышленников она не ограничит. Так разве что можно будет ужесточить наказание за преступления с использованием искусственного интеллекта, но не более того».

Авторы инициативы подчёркивают, что маркировка ИИ-контента — это не ограничение свободы слова, а защита пользователей от мошенников. Но сетевые аферисты найдут способ обойти и такой закон, полагает директор юридической фирмы «Интернет и право» Антон Серго: «Все это инструмент защиты от фейков, но есть опасения, что он будет применяться весьма избирательно. Как в случае с дверным звонком, который эффективен только в отношении относительно порядочных людей, а не хулиганов. Думаю, что здесь будет так же. Тот контент, который действительно является поддельным с помощью ИИ, скорее всего, будет достаточно хорошо прятаться с точки зрения его создателей, чтобы невозможно было установить лиц, которые нужно привлекать к ответственности. Наказывать будут в итоге не тех».

Не всем потребителям контента требуется внешнее регулирование медиапродукта, считает заместитель декана по научной работе факультета журналистики МГУ Михаил Макеенко: «Как мой коллега говорит, если человек любит романы Жоржа Сименона и все их прочитал и переживает,что они закончились, то нейросеть писать романы, как у автора. Но она сделает еще 100 романов, но там будет написано, что это выполнено ИИ. Если читателю нравится такое читать, он снова погрузится в этот мир. А у кого-то идиосинкразия на ИИ».

Закон, который обязывает компании помечать ИИ-контент, уже действует в Евросоюзе. С 23-го года подобные механизмы разрабатываются в США, однако официально пока не приняты.

Леонид Пастернак