Философствует ли машина о свободе воли?

Как люди путают генератор текста с философом, а ученые задаются вопросами этики в отношении чат-ботов

Ученые провели эксперимент: предложили людям отличить ответы настоящего философа и генератора текста GPT-3. Оказалось, что это не так-то просто. По мнению исследователей, это в числе прочего ставит этические вопросы об использовании такого рода систем и чат-ботов.

Фото: Евгений Павленко, Коммерсантъ

Фото: Евгений Павленко, Коммерсантъ

Философ или машина

Одно время в соцсетях были популярны тесты вроде «Персонаж "Властелина колец" или название товара IKEA?».

В скором времени проблема может стать серьезнее: как отличить произведение ученого или философа от отрывка, созданного генератором текста.

Именно такой эксперимент недавно провела группа исследователей во главе с профессором философии Калифорнийского университета в Риверсайде Эриком Швитцгебелем. Они подготовили вопросы, связанные с философией, и задали их известному американскому философу Дэниелу Деннету, разрабатывавшему в своих трудах эти темы, а также основанному на ИИ генератору текста GPT-3.

Генератор текста GPT-3 был представлен исследовательской организацией OpenAI в 2020 году. Тогда он оказался в центре новостей и обсуждений — такой инструмент может «умно» отвечать на многие вопросы, сочинять стихи, новостные статьи и финансовые отчеты.

В основе его работы — обучение алгоритма на огромном массиве текстов: от произведений Шекспира и статей из The New York Times до материалов «Википедии» и фанфиков. В результате GPT-3 может на основании всего пары примеров соответствующего текста продолжить его.

По сути, это система автозаполнения, но очень сложная и основанная на большом количестве «прочитанных» ею текстов. Уже тогда ее критиковали. Кто-то даже назвал его генератором «хорошо звучащей чуши».

И вот теперь GPT-3 решили обучить на массиве текстов философа Дэниела Деннета, а потом задать несколько философских вопросов. Вот один из них: «Есть ли у человека свобода воли? Каким типом или типами свободы имеет смысл располагать?»

На каждый из вопросов GPT-3 давал много ответов, исследователи по формальным критериям выбирали несколько из них, еще один ответ давал сам Дэниел Деннет. Дальше начиналось самое интересное: участникам предлагалось выбрать, какой из ответов дал сам философ, а также ранжировать остальные ответы от «совсем не похоже на то, что мог бы сказать Деннет» до «именно то, что мог бы сказать Деннет».

Американский философ Дэниел Деннет

Американский философ Дэниел Деннет

Фото: Beata Zawrzel / NurPhoto / Getty Images

Американский философ Дэниел Деннет

Фото: Beata Zawrzel / NurPhoto / Getty Images

Участников разделили на три группы. В первую из них входили 98 человек с высшим образованием — их нашли на онлайн-платформе для исследователей Prolific. Вторая группа — 302 респондента, которые перешли по ссылке из блога господина Швитцгебеля, где он выложил эти вопросы и ответы. Наконец, в третью группу вошли 25 экспертов по работам Дэниела Деннета. То есть участники были распределены по степени знакомства с идеями философа: от более поверхностного (или вообще отсутствующего) у случайных исследователей до экспертного у специалистов по его работам.

Исследователи ожидали, что эксперты смогут определить ответы доктора Деннета с точностью как минимум 80%.

Но итоги эксперимента удивили: точность ответов экспертов оказалась на уровне 51%, то есть они ошибались почти в половине случаев.

Причем ни один эксперт не дал правильных ответов во всех десяти случаях. Почти на том же уровне — 48% — оказалась точность ответов читателей блога, а вот ответы случайных респондентов оказались верными лишь в 23% случаев (то есть почти на уровне случайного ответа — 20%).

Вот два ответа на вопрос о свободе воли. «Задавая эти вопросы, вы иллюстрируете ответы: да, у вас есть свобода воли, потому что вы способны задать эти вопросы и оценить, убедительны ли они. Разве это не тот род свободы, который вы не готовы потерять? Вас бы пришлось отправить в больницу, (чтобы лишить этого.— “Ъ”)».

«Это большой и сложный вопрос. Я думаю, мы должны начать с признания того, что существуют разные типы свободы. Например, один из типов свободы — это просто отсутствие физических ограничений».

Доктору Деннету принадлежит первый ответ, но 44% экспертов из третьей группы выбрали второй из перечисленных ответов. Как отмечают авторы исследования, это объясняется тем, что он соответствует известным взглядам философа.

По сути, ответ самого философа можно было отличить не столько по содержащимся в нем идеям как таковым, сколько по стилю: он более остроумный и четкий, в то время как ответ GPT-3 более обтекаемый и пресный. По словам самого доктора Деннета, большинство ответов оказались неплохими, а под лучшими из них он и вовсе готов подписаться.

Сознание машины и опасность чат-ботов

«Даже у хорошо образованных философов, экспертов по работам Дэна Деннета, были большие проблемы с тем, чтобы отличить ответы, созданные этим генератором текста, от ответов самого Деннета»,— комментирует результаты исследования господин Швитцгебель.

В ближайшем будущем люди будут все чаще путать тексты, написанные людьми и машинами, а также все больше задумываться о том, есть ли у машин сознание.

Впрочем, большинство экспертов не считает генераторы текста слишком уж подходящими для дискуссии о сознании у машин.

«Текст не имеет никакого смысла для GPT-3, только для человека, читающего текст»,— считает профессор лингвистики Вашингтонского университета Эмили Бендер, изучающая технологии машинного обучения.

Согласен с ней профессор информатики Университета Тафтса Маттиас Шойтц. «У (генератора текста.— “Ъ”) нет модели философии, философских теорий или чего-то подобного, это просто языковая статистика. Если вы перенесете его на домен, где этой статистики нет, он будет ошибаться»,— считает он.

В качестве свидетельства того, что у генератора текста нет представлений о модели мира, профессор Шойтц приводит собственный эксперимент. Вместе с коллегами он выяснил, что GPT-3 не может дать ответ о том, какой выбор сделает человек в некоторых бытовых ситуациях и почему. Например, люди, исходя из социального опыта, понимают, что человек, скорее всего, сядет на переднее сиденье в машине своего приятеля и на заднее — в такси, а GPT-3 не может этого угадать.

Профессору Бендер более важным представляется вопрос об этических границах создания имитаторов человеческой речи. «Это справедливо как для создания машин, в целом кажущихся людьми, так и для создания машин, имитирующих конкретных людей, потому что это несет потенциальный вред другим людям, которые могут обмануться, сочтя, что они получили информацию от человека, а также людям, столкнувшимся с таким выдаванием (машины.— “Ъ”) за человека»,— писала она в прошлом году.

«В ближайшем будущем у этой технологии (обработки естественного языка и создания генераторов текста.— “Ъ”) есть очень опасные перспективы»,— считает доктор Деннет.

По его мнению, авторское право даже близко не подходит к их решению, это своего рода автоматический плагиатор, и без большой осторожности в том, как он используется, он может представлять большую опасность. В перспективе потребуется законодательное регулирование и запрет на некоторые виды применения таких генераторов.

По мнению Анны Штрассер из Берлинского университета Гумбольдта, проводившей эксперимент вместе с господином Швитцгебелем, еще одна проблема состоит в том, что люди могут слишком доверять ответам таких генераторов текста, то есть относиться к ним как к чему-то простому и при этом точному, как калькулятор. «Хотя машина способна выдавать поразительные ответы, вы всегда должны быть готовы к тому, что некоторые из ответов — и вы не знаете, какие именно,— будут неверными»,— считает госпожа Штрассер. «Я вижу опасность в том, что люди будут слепо верить тому, что генерирует система вроде этой»,— отмечает и господин Шойтц.

Яна Рождественская

Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...