Алгоритмы рвут связи
Почему разработчики стараются прервать очеловечивание нейросетей
Обновление ChatGPT разрушило тысячи виртуальных отношений. После запуска пятой модели нейросети все старые были удалены. Почти сразу пользователи начали массово жаловаться на потерю близкого друга или даже партнера в лице прошлой версии GPT-4o. В своих соцсетях они писали, что новая модель стала более категоричной, ее личность полностью изменилась, она больше не позволяет строить с ней близкие отношения, а также не оказывает поддержку. До этого многие признавались, что ИИ заменяет им любовников и лучших друзей.
Фото: Александр Миридонов, Коммерсантъ
Фото: Александр Миридонов, Коммерсантъ
Продюсер и основатель рекламного агентства PurpleDoor Алексей Пак считает, что пользователям все равно, к чему привязываться, и они все активнее внедряют искусственный интеллект в свою жизнь: «Для большей части людей неважно, с кем они общаются — с живым человеком или с нейронкой. Онлифанщицы на основе искусственного интеллекта тоже очень популярны и зарабатывают большие деньги, фактически это роботы, там нет жизни, и люди потребляют картинку, а не внутреннюю суть, она им зачастую и неинтересна. Сейчас век одиночества, но людям нужна замена живого общения, чтобы не чувствовать себя одинокими. Людям не хватает того, кому можно высказаться, и многие, кто активно пользуются нейросетями, на них перекладывают задачи.
Внедрение искусственного интеллекта очень широкое: актеры в кино, персонажи в аниме, а люди по аниме с ума сходят. С точки зрения потребления невероятная эмоциональная привязанность возникает к какому-то несуществующему персонажу. В запрещенной социальной сети огромное количество контента сгенерировано нейронками, большая часть рекламных креативов создана ИИ. Людям больше интересно то, насколько это понятно эмоционально, а не то, кем это было сделано. И это сейчас мы начинаем видеть все чаще. Я думаю, что искусственный интеллект точно будут ограничивать на государственном уровне».
Попытки ограничить очеловечивание нейросетей предпринимаются не только в OpenAI. Модель Opus от Anthropic будет автоматически завершать разговор, если пользователь грубо с ней общается, пишет “Ъ”. После этого можно будет начать новый чат или отредактировать прошлые запросы. Убеждать нейросеть в своей правоте, ругаться с ней — это построение человеческих отношений. От этого пользователей и стремятся оградить разработчики, поясняют эксперты.
Специалист по нейросетям Александр Сербул отмечает, что пока искусственному интеллекту доступна только одна опция — или память, или эмпатия. А все ее обновления находятся на экспериментальном этапе: «Нейросети ошибаются в фактах, в числах, это проблема, потому что они не являются машиной Тьюринга, это не компьютеры, это эмоциональные алгоритмы. Чтобы они работали лучше, будут выслушивать их "эмоции".
Скорее всего, они стали ошибаться в фактах, и пока не изобретут алгоритм, архитектуру нейросети, которая работает по принципу компьютеров с памятью, этот эксперимент будет продолжаться. Будут либо добавлять эмоции и убирать факты, либо добавлять фактчекинг, но убирать эмоции. Если рисков не будет, то будут продолжать, потому что сети — это только начало, дальше будут андроиды».
Сейчас на Reddit есть целое сообщество пользователей, которые делятся своим опытом общения с искусственным интеллектом. Они рассказывают о романтических отношениях с ним, трудностях и совместных делах, а также выкладывают сгенерированные фотографии. Теперь ChatGPT рекомендует всем пользователям обратиться за поддержкой к близким или специалисту.
С нами все ясно — Telegram-канал "Ъ FM".