Герои Disney доверятся ИИ
Как соглашение компании с OpenAI отразится на анимационной индустрии
Disney разрешил нейросети Sora генерировать видео с персонажами компании. Как пишет Reuters, медиакорпорация заключила лицензионное соглашение с OpenAI. Срок договора — три года. Disney также инвестирует $1 млрд в организацию, разрабатывающую искусственный интеллект. Пользователи смогут создавать видео с персонажами Marvel, Pixar и Star Wars, а анимационная студия — показывать их на своей платформе Disney+, начиная с 2026 года.
Фото: Fred Prouser / Reuters
Фото: Fred Prouser / Reuters
При этом соглашение не распространяется на использование внешности и голосов живых актеров. И интеллектуальная собственность сохраняется за Disney, заметила главный юрист финтех-сервиса «Моя удаленка» Валерия Минакова: «Сегодня многие критично относятся к искусственному интеллекту, особенно к созданию с его помощью каких-то фото- или видеоматериалов, потому что технология легко создает контент, который выглядит как настоящий. Это вызывает определенные опасения, связанные с возможностью подделок, нарушения авторских прав и в целом с нивелированием творческого вклада. Но в данном случае Disney идет несколько другим путем. Компания не только не запрещает генерировать видео с помощью ИИ, она официально лицензирует свои персонажи и стремится использовать его именно как инструмент для расширения творчества, а не как угрозу. Включение лучших работ в официальные подборки — это попытка, скажем так, интегрировать творчество фанатов в целом в экосистему бренда и превратить технологии в часть официального медийного опыта. При Disney остается правообладателем, и за ними сохраняются все исключительные права на персонажи. То есть Sora будет обязана соблюдать определенные правила, стандарты и ограничения, установленные корпорацией. Disney не отказывается от контроля над тем, как будут изображаться их персонажи».
Нейросеть Sora получит доступ к библиотеке с более чем 200 анимированными персонажами из вселенных Disney. Согласно релизам, среди них будут Микки Маус, Золушка, Симба, Лило и Стич. Для генерации контента Sora сможет использовать костюмы, реквизит, транспортные средства и локации из оригинальных анимационных фильмов. Однако у нейросетей по-прежнему сохраняются проблемы с созданием качественного видеоконтента, подчеркнул эксперт в области искусственного интеллекта и основатель консалтинговой компании AIIA по корпоративному обучению ИИ Адам-Сергей Авакян: «С выходом Vео 3 от Google в мае этого года произошло настоящее потрясение в индустрии. Теперь можно генерировать полноценные видеосцены с движением камеры, светом, актерской мимикой и атмосферой, используя только текстовое описание, без актеров и декораций. До этого режиссеры и креаторы работали буквально вручную, то есть необходимо было создавать каждый кадр по отдельности в Midjourney и затем оживлять его с помощью сторонних инструментов. Такой процесс занимал порядка месяца, а то и более, на одну пилотную серию и требовал, как следствие, огромной команды специалистов и терпения. Но все ускорилось тысячекратно. Себестоимость 1 секунды ИИ-видео составляет в среднем около 80 центов или порядка 50-60 руб. Однако важно понимать, что человек по-прежнему незаменим. Пока технологии, например, неидеально справляются с синхронностью в речи, особенно в эмоциональных сценах. Часто возникают проблемы с логикой повествования, сменой ракурсов, повторением внешности персонажей.
Речь не про отказ от человека, а про новый тип креативного партнерства. Технологии помогают воплотить идеи быстрее, дешевле и масштабнее, но смысл, глубину и душу все еще вкладывает человеческая рука».
В феврале 2025-го Bloomberg сообщал, что OpenAI вела многосторонние переговоры с крупнейшими голливудскими студиями. Среди них — Disney, Universal Pictures и Warner Bros. Discovery. Предметом обсуждения был коммерческий и творческий потенциал нейросети Sora. Студии опасались использования их данных в некорректных целях. Ситуацию усугубила голливудская забастовка 2023 года: тогда актеры и режиссеры протестовали против внедрения искусственного интеллекта.