ИИ поддался деградации

Что влияет на регресс нейросетей и как этого избежать

Искусственный интеллект деградирует. К такому выводу пришли ученые нескольких американских университетов. Причиной регресса называют массовые запросы на создание так называемых брейнрот-видео для соцсетей. Языковые модели обучаются на некачественном вирусном онлайн-контенте, поэтому их способность к глубокому анализу ухудшается. Насколько обоснованны опасения ученых? Расскажет Ульяна Горелова.

Фото: Александр Миридонов, Коммерсантъ

Фото: Александр Миридонов, Коммерсантъ

В прошлом году Оксфордский словарь признал выражением года brain rot («разложение мозга»). Так называют чрезмерное потребление бессмысленного контента, который вредит когнитивным способностям человека. В последнее время в социальных сетях стали популярны подобные абсурдные видео. Зачастую там используются сгенерированные изображения. Иногда в роликах есть сюжет и смешная озвучка, а порой под музыку может просто крутиться фото рыбы. Однако проблема не столько в самом контенте, сколько в инструментах его создания. Все чаще интернет-пользователи просят искусственный интеллект сгенерировать такие видео. Новое исследование показывает, что языковые модели, «вскормленные» популярным, но низкокачественным контентом, переживают своего рода «интеллектуальную деградацию». Ученые провели эксперимент на двух нейросетях и отметили ухудшение памяти, этические нарушения в ответах и даже склонность к психопатии. Это накладывает большую ответственность на разработчиков, заметил сооснователь и генеральный директор университета Zerocoder Кирилл Пшинник:

«Ученые из UT Austin дообучили модель на коротких вирусных постах из соцсетей и отдельно контролировали, как она себя ведет. Оказалось, что она начинает хуже рассуждать и выполнять логические задачи. Важно понимать, что фундаментально языковые модели не обучаются на каждом конкретном запросе. Личные чаты крупных сервисов вообще можно исключить из этого процесса, например, в ChatGPT. Также прямой зависимости от одной аудитории нет. Если какие-то конкретные контентные цепочки попадают в обучение в небольшом количестве, то в этом нет ничего критичного и страшного. Так что эффект часто обратим, но след все равно остается.

И поэтому нужно обязательно регулярно фильтровать тексты, на которых модели обучаются».

Однако ученые отмечают, что массовое распространение подобных брейнрот-роликов в интернете загрязняет данные, на которых станут учиться будущие модели. А результаты эксперимента показывают, что вновь повысить качество ответов с помощью повторного обучения искусственного интеллекта было нелегко. В первую очередь в зону риска попадут вторичные сервисы, пояснил исследователь нейросетей Михаил Балачук: «Крупные компании, которые создают эти модели нейросетей, все-таки для создания ядра не используют пользовательские видео напрямую, там идет некая ручная модерация. Но я думаю, что это имеет место в небольшом проценте. Со временем это может усиливаться, потому что нейросети необходимо дообучать. Для обычных пользователей заметного оглупления ИИ мы не увидим. Мне кажется более вероятным, что может деградировать сам интерфейс, через который мы чаще всего используем эти генерации: Runway, Portal, Veo, WebUI. Эти оболочки как раз могут адаптироваться под массовый вкус, упроститься, сделать шаблоны веселее, вируснее, короче, потому что эти платформы хотят, чтобы конечному потребителю ролик казался ярче, интереснее».

Тем временем погрешность в ответах искусственного интеллекта и сейчас высока. По данным исследования Европейского вещательного союза и BBC, на запрос о подборе новостей нейросети в 45% случаях выдают, по крайней мере, одну существенную ошибку.


С нами все ясно — Telegram-канал "Ъ FM".

Ульяна Горелова