Контент блогеров начали красть их клоны
Яна Лубнина — об AI-аватарах
Обозреватель “Ъ FM” Яна Лубнина рассказывает, как дипфейки переключились с публичных персон на популярных пользователей соцсетей.
Фото: Алексей Назаров, Коммерсантъ
Фото: Алексей Назаров, Коммерсантъ
Раньше привычным мошенничеством в соцсетях было копирование материалов либо создание фейковых аккаунтов от имени раскрученных пользователей с полным копированием содержимого оригинального профиля. Теперь в игру вступили AI-аватары: люди рассказывают историю на камеру, возмущаются шокирующими новостями или делятся откровенностью — только их самих не существует.
TikTok заполонили ролики, где вместо настоящих пользователей их слова пересказывают клоны, созданные инструментами с искусственным интеллектом. Сгенерированный персонаж со своей оригинальной внешностью и голосом ведет себя как человек, но рассказывает чужую историю. Так, по словам экспертов, по сети расходятся теории заговора или просто увлекательные рассказы. Фейковые видео набирают сотни тысяч, а то и миллионы просмотров, оттягивая тем самым трафик от оригинальных вирусных роликов. Они способны даже скопировать запинки и интонацию в первоначальной озвучке.
Исследователи, опрошенные редакцией американского радио NPR, всерьез обеспокоены этой проблемой. Новый тип дипфейков больше не обращен в сторону публичных персон, создатели AI-клонов больше не копируют Дональда Трампа или принцессу Диану. Теперь им интересны все пользователи, которым удалось привлечь внимание к своему контенту. И именно кража слов обычных людей стала новостью. TikTok, в частности, пока не способен модерировать такие видео. Платформа лишь призывает маркировать контент, который изготовлен при помощи нейросетей. Но риски распространения дезинформации растут. Новые технологии наделения виртуальной личности реальным контекстом могут стать и частью политических пропагандистских кампаний, предупреждают аналитики. И хотя их никто не послушает, напоминают, что безоговорочно верить увиденному и услышанному на видео в интернете теперь нельзя.