На главную региона

Клеймо для искусственного интеллекта

В Петербурге предлагают маркировать контент, созданный с помощью нейросетей

Дискуссия на тему законодательного регулирования искусственного интеллекта (ИИ) и созданного с помощью него контента идет в правительстве и Госдуме России не первый год. Однако единообразное и специальное правовое регулирование этой сферы в стране пока не создано. Очередную идею выдвинули в Петербурге: депутат городского Законодательного собрания предложил маркировать контент, созданный нейросетью. Парламентарий отмечает, что уже сейчас сложно отличить настоящее от сгенерированного ИИ, и считает, что с помощью нейросетей создается большое количество фейков.

«В преддверии выборов желающие могут использоваться ИИ, чтобы исказить ситуацию и представить политика в плохом свете»,— отметил депутат Павел Крупник (в центре)

«В преддверии выборов желающие могут использоваться ИИ, чтобы исказить ситуацию и представить политика в плохом свете»,— отметил депутат Павел Крупник (в центре)

Фото: Евгений Павленко, Коммерсантъ

«В преддверии выборов желающие могут использоваться ИИ, чтобы исказить ситуацию и представить политика в плохом свете»,— отметил депутат Павел Крупник (в центре)

Фото: Евгений Павленко, Коммерсантъ

Руководитель фракции «Единая Россия» в Законодательном собрании Петербурга Павел Крупник отправил обращение главе Роскомнадзора Андрею Липову с предложением ввести обязательную маркировку контента, созданного с помощью искусственного интеллекта. Речь идет о любых сгенерированных или измененных изображениях, аудио- и видеороликах.

«Весь контент, созданный искусственным интеллектом, конечно, нужно отмечать. Количество фейков растет, как снежный ком: интервью, фотографии — уже непонятно, где настоящее, а где нет. Идет подмена исторических фактов, изменения фотографий, личности. Это неправильно, что мы даем возможность бесконтрольно размещать такой контент»,— прокомментировал «Ъ-СПб» господин Крупник. Особенно парламентария беспокоят фейковые новости, связанные с политикой и военной операцией на территории Украины. «В преддверии выборов желающие могут использоваться ИИ, чтобы исказить ситуацию и представить политика в плохом свете»,— отметил депутат.

«Единоросс» предполагает, что созданные при помощи нейросетей фотографии или видео должны быть помечены, например, фразой: «Данный материал изготовлен ИИ».

Проработать введение административной ответственности за создание фейкового контента и отсутствие маркировки, по мнению господина Крупника, должны на федеральном уровне.

Обращение с аналогичным предложением парламентарий еще в апреле отправлял министру цифрового развития, связи и массовых коммуникаций России Максуту Шадаеву. Павел Крупник рассказал «Ъ-СПб», что ответа на предыдущее письмо пока не получил.

ИИ в своей работе сегодня используют дизайнеры, музыканты, копирайтеры, маркетологи и другие представители креативных индустрий. С ростом популярности нейросетей, в комментариях в социальных сетях все чаще можно встретить спор о том, реальна ли картинка или создана компьютером.

Как писал “Ъ”, по данным АНО «Диалог регионы», с начала 2022 года система «Зефир» собрала информацию более чем о 570 тыс. единиц контента, созданного с помощью ИИ, что составляет 10% от всего проанализированного контента. При этом в 2023-м количество таких материалов увеличилось в 17 раз по сравнению с 2022-м. По прогнозу Statista, к 2027 году объем всего рынка ИИ-контента увеличится с $2 млрд в 2023-м до $10 млрд.

В начале июля помечать контент, чтобы бороться с дипфейками и защитить пользователей от недостоверной информации, предложили в Минцифрах.

О том, что созданные нейросетями произведения нужно делать узнаваемыми, говорят и крупные IT-компании. Например, Институт системного программирования РАН совместно с «Яндексом» разрабатывает сервис для маркировки такого контента.

«Во-первых, маркировка необходима в интересах потребителей контента. Мы вправе знать, что именно читаем, слушаем, смотрим и так далее. Во-вторых, она будет учитывать интересы авторов и правообладателей традиционного контента, созданного без использования технологий ИИ. Уже сейчас существует конкуренция между традиционно созданным контентом и результатами, получаемыми с помощью ИИ, со временем она будет возрастать»,— комментирует академический руководитель образовательной программы «Право интеллектуальной собственности в цифровую эпоху» юридического факультета НИУ ВШЭ — Санкт-Петербург Никита Иванов. При этом эксперт отмечает, что произведение может быть полностью создано с помощью ИИ, а может лишь частично. «Вряд ли маркировка должна быть обязательной во всех случаях»,— подчеркивает господин Иванов.

Эксперт в области ИИ и брендинга, куратор профиля бакалавриата «Коммуникационный дизайн» в Школе дизайна НИУ ВШЭ — Санкт-Петербург Микаэль Аскеров отмечает, что маркировка ИИ-контента — это способ сохранить доверие и инструмент прозрачности. «Особенно это критично для политической рекламы и новостей, чтобы исключить распространение дипфейков и манипулированного контента. Мы видим множество случаев подрыва репутации и судебных разбирательств на этой почве,— объясняет господин Аскеров.— Маркировка нужна пользователю — для доверия к изображению, автору — для демонстрации прозрачности и этичности процесса создания, платформам — для снижения юридических рисков».

Что касается юридической стороны, то в России отсутствует единообразное правовое регулирование искусственного интеллекта, замечает младший юрист КА Pen & Paper Анна Лысенко.

«В действующем законодательстве отсутствуют специальные нормы, посвященные регулированию ИИ-контента. Однако некоторые статьи позволяют "расширить" круг ответственности в том числе и до ИИ-контента. Например, УК РФ: ст. 207.3 (заведомо ложная информация о ВС РФ), ст. 280.3 (дискредитация ВС РФ), ст. 128.1 (клевета), и другие. И КоАП РФ: административная ответственность за распространение недостоверной информации в СМИ и интернете (штрафы до 5 млн рублей). Закон "О фейках" распространяется на любую форму дезинформации, в том числе созданную ИИ, включая "дипфейки". Таким образом, лицо, создавшее и/или опубликовавшее ложный/недостоверный ИИ-контент, подлежит ответственности на общих основаниях, аналогично создателям "традиционного" медиа-контента»,— говорит Анна Лысенко.

«Когда использование дипфейков служит источником распространения ложной информации, порочащей честь, достоинство и деловую репутацию граждан или юридических лиц, речь будет идти о защите и восстановлении нарушенного права на основании общих норм гражданского законодательства (в порядке ст. 152 ГК РФ)»,— дополняет юрист юридической фирмы Vegas Lex Елизавета Вихлянцева. По мнению эксперта, с точки зрения закона маркировка не освободит автора от ответственности в полном объеме. «Маркировка, скорее, позволит повысить прозрачность и доверие пользователей: когда есть информация о том, что изображение создано нейросетью, это позволяет оценить его более критично и осознанно. В таком случае контент с условной отметкой ИИ позволит разоблачить дезинформацию и защитить пользователей от манипуляций и ложного представления о событиях»,— заключает госпожа Вихлянцева.

Надежда Ярмула