Нейросетям понадобились адвокаты

Как защитить авторское право на сгенерированный ИИ контент

У нейросетей появятся адвокаты. Microsoft обещает в судах защищать права пользователей на контент, сгенерированный виртуальным помощником компании. Речь идет о приложении Copilot, которое появилось в 11-й версии Windows. Свое решение IT-корпорация объясняет тем, что ее клиенты опасаются исков, а потому осторожничают с новым сервисом. Есть ли авторское право у искусственного интеллекта? И как защититься от нейросетей? Выясняла Аэлита Курмукова.

Фото: Дмитрий Лебедев, Коммерсантъ

Фото: Дмитрий Лебедев, Коммерсантъ

Виртуальный помощник Copilot появился в предварительной сборке Windows 11 летом 2023 года. И пока он доступен для участников программы Insider. Кроме стандартных настроек в виде режимов, подсветок, онлайн-ассистент помогает создавать документы, электронные письма и даже презентации. И выдает контент на основе работ авторов и художников.

По сути это компиляция, и иски от правообладателей не исключены. Microsoft решила взять на себя все возможные спорные вопросы в судах, включая выплату компенсаций в случае неблагоприятных решений. А это значит, юристы международных гигантов уверены, что выиграют в этой схватке, отмечает IT-директор ГК «Специальные системы и технологии» Валентин Каськов:

«Когда мы делаем какой-либо компилят из разных частей песен или картин, то авторские права в данном случае не нарушаются, потому что создастся новый объект искусства, культуры. И он будет иметь какое-никакое, но авторство. Если нейросеть как нематериальный актив принадлежит той или иной компании, то эта организация вполне может заявлять, что именно она является автором».

Вот этим как раз и руководствуется Microsoft, продвигая своего виртуального помощника в массы. Хотя на законодательном уровне те же американские суды заявляют, что у искусственного интеллекта не может быть авторства. С разработчиками судятся голливудские сценаристы, художники, писатели, которые опасаются остаться без работы. Но у заказчиков иногда больше прав, чем у самих авторов, добавляет гендиректор коммуникационного агентства Soyka Екатерина Козырева:

«Если мы, например, купили картинку у художника, то он с нами рассчитался, передал нам права. Дальше это изображение, по сути, принадлежит агентству. Мы можем с ним делать все что угодно. Можем модифицировать и опубликовать или попросить нейросеть сгенерировать какие-то похожие материалы на ее основе. Например, у меня на картинке был Чебурашка, а я хочу, чтобы нейросеть еще добавила крокодила Гену. За базу берется мой Чебурашка, перерисовывается нейросетью уже в каком-то другом стиле, который я задала, и добавляется крокодил Гена. Получается, что от исходного Чебурашки там остается только референс».

Референсом — вспомогательным изображением — пользуются и сами художники или дизайнеры, создавая свои рисунки. Но нейросеть это делает быстрее и дешевле, говорят собеседники “Ъ FM”, которые прибегают к помощи искусственного интеллекта. И чтобы такие сервисы не украли рисунки, к примеру, с сайта правообладателя, лучше самим заняться их защитой, считает директор Edtech Hub фонда «Сколково» Наталья Царевская-Дякина:

«Первичная принадлежность любого творчества — все-таки человек. Помните хайп NFT? Это один из способов защиты любого изображения в интернете. Когда к творческому продукту привязывается уникальный NFT-код, то есть токен, который выступает гарантией собственности у конкретного человека на это изображение. Даже если мы пойдем не путем NFT, то защита от скачивания — это понижение качества изображения, водяные знаки, которые отображаются после загрузки, автоматические ссылки, подписи».

Но если фотографии и рисунки можно скрыть от искусственного интеллекта, то как быть с голосом? Этот вопрос пока находится вне юридического поля. В России в целом нет закона, который регулирует использование нейростей. И адвокаты при подобных спорах все еще руководствуются исключительно моральным кодексом.


С нами все ясно — Telegram-канал "Ъ FM".

Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...