Голливуд взыскивает оплату за обучение

Сможет ли Midjourney удовлетворить претензии Disney и Universal

Голливуд впервые решил засудить разработчиков искусственного интеллекта. Disney и Universal подали совместный иск против Midjourney. Это одна из самых известных нейросетей для генерации изображений. Студии утверждают, что для обучения моделей разработчик незаконно использовал образы персонажей, которые охраняются авторским правом. Это в том числе герои «Звездных войн», «Холодного сердца», «Мстителей» и «Симпсонов». И теперь картинки, основанные на чужой интеллектуальной собственности, работают как вирусная реклама для Midjourney, добавляют истцы.

Фото: Евгений Павленко, Коммерсантъ

Фото: Евгений Павленко, Коммерсантъ

Голливуд требует прекратить дальнейшее использование своего контента и заплатить компенсацию до $150 тыс. за каждый случай нарушения. Хотя до сих пор нет единого мнения, можно ли это вообще считать нарушением, поясняет академический директор Moscow Digital School Роман Янковский: «Закон запрещает использование объекта интеллектуальных прав без согласия правообладателя. Что входит в это использование? Есть классические вещи: публичное воспроизведение музыкального произведения, трансляции по ТВ. Но является ли обучение искусственного интеллекта на каком-то произведении его использованием или нет, вот это вопрос.

Использование обычно направлено на какую-то аудиторию вовне, потенциальное получение прибыли, которую мог бы получить автор. Здесь же мы как будто один раз показываем этот условный объект авторских прав нашей математической модели, она его запоминает, и больше его нет нигде, то есть он вовне не выходит. Внутри модели его нет, там только цифры и коэффициенты. Пользователи снаружи могут у модели что-то получить похожее, но это не будет идентичным. И это будет исключительно потому, что пользователь знает, что он хочет. Это все равно, что какой-нибудь художник обучил бы группу учеников на определенных работах, но потом примеры выбросил бы, никому не показывал, а ученики бы начали по памяти что-то делать.

Добросовестное использование, когда мы можем применять чужие объекты интеллектуальных прав без разрешения, на самом деле упирается в некие общественно полезные цели. И здесь тоже польза очевидна. Нужно обучать искусственный интеллект? Нужно. Для этого нужны материалы. Если мы сейчас скажем, чтобы разработчики получали разрешение на все материалы, которые они используют для обучения, у нас искусственный интеллект закончится через неделю или будет знать все, что происходило до 1900 года».

Это не первый иск о защите авторских прав к разработчикам искусственного интеллекта. Правда, другие громкие дела связаны прежде всего с текстовым контентом, а не с изображениями. Например, The New York Times судится с OpenAI, а блог-платформа Reddit с другим популярным стартапом Anthropic. Повод один — обучение моделей на данных, которые охраняются авторским правом.

Но можно ли удалить из нейросети данные, на которых она уже обучилась? На этот вопрос “Ъ FM” ответил гендиректор компании-разработчика искусственного интеллекта «А-Я эксперт» Роман Душкин: «Обучение нейросети осуществляется в одну сторону, то есть это необратимый процесс. Более того, он неинтерпретируемый. То есть достаточно сложно раскрыть нейросеть и сказать: "Вот именно это отвечает за генерацию картинки с принцессой в стиле Disney". Теоретически это возможно, но на таких объемах, какие сейчас нейросети собой представляют, это сделать нереально.

Есть несколько разных подходов, как можно ограничить это использование. Например, все серьезные модели для генерации картинок прекрасно знают, как выглядит человек без одежды. Но вы никогда не заставите просто так эти модели нарисовать человека без одежды. При должном старании опытный промпт-инженер с легкостью достанет все, что в модели есть. Поэтому внешние ограничения, модерирующие запрос пользователя и запрещающие спрашивать определенные вещи, нарисуют в стиле Pixar, в стиле Disney и так далее. Для 99% пользователей это вопрос снимет. Возможно, даже суду можно будет доказать, что проблема решена.

Есть еще один подход, который еще больше удовлетворит требования регулятора, но потребует от разработчиков более серьезных вложений. Это пост-контроль. Когда картинка уже сгенерирована, проверяется: нет ли на этой картинке того, что нельзя показывать. При этом если подключать те версии, которые не были обработаны после решения суда и запретов, они так и будут продолжать генерировать все, что в них было заложено. Этот фарш точно назад не провернуть».

Голливудские студии заявляют, что направляли претензии Midjourney, но не получили ответа. Разработчики тем временем развивают генерацию не только картинок, но и видео. Правообладатели опасаются, что все будет только хуже.


С нами все ясно — Telegram-канал "Ъ FM".

Илья Сизов