Язык без мозгов

 
       Последний раз мир увлеченно обсуждал проблему искусственного интеллекта во время матча Гарри Каспарова с компьютером. В этом году тему реанимировал фильм Спилберга--Кубрика "Искусственный разум". Люди опять мечтают о том, чтобы машина думала и разговаривала.

       В 30-е годы ХХ века английский математик Алан Тьюринг разработал теоретическую концепцию, получившую название "универсальная машина Тьюринга". Эта машина существовала лишь на бумаге, но широко использовалась в теоретических работах по программированию. В то время все верили, что в недалеком будущем будут созданы "мыслящие" машины. Тьюринг предложил провести испытание, которое могло бы доказать, что машина способна мыслить. Этот экзамен должен был проходить следующим образом. Перед экспертом ставится задача: общаясь с двумя невидимыми ему собеседниками по телетайпу и задавая им любые вопросы, определить, кто из них мужчина, а кто — женщина (или различить молодого и старого, умного и глупого). На самом деле одним из собеседников должна стать машина. Тьюринг предлагал называть "мыслящей" ту машину, которая сумеет ответить на все вопросы и будет вести беседу не хуже человека. Поскольку вопросы эксперта невозможно спрогнозировать заранее, такая машина должна быть готовой к ответу практически на любой вопрос. Тьюринг полагал, что она должна будет обладать эрудицией энциклопедиста.
       Через полвека после этого, в 1972 году, американским программистом Джозефом Вейценбаумом была разработана программа "Элиза", которая была подвергнута испытанию по методике Тьюринга. 24 эксперта, заранее предупрежденных о том, что их собеседником может быть компьютер, разговаривали с "Элизой" в течение часа. Несмотря на предупреждение, 15 испытуемых пришли к выводу, что разговаривали с человеком, пятеро колебались и только четверо считали, что вели диалог с машиной. Но самым главным испытанием для "Элизы" стал разговор с вице-президентом фирмы, в которой работал Вейценбаум. Будучи уверенным, что разговаривает по внутренней сети со своим сотрудником, вице-президент спросил:
       — Можно сейчас воспользоваться компьютером?
       — А почему вы спрашиваете?
       — Может быть, мне удастся заключить сделку.
       — Почему вы в этом уверены?
       — Мои предполагаемые покупатели еще не видели нашу систему в действии.
       — Это имеет для вас большое значение?
       — Конечно.
       — Вы как будто сомневаетесь в этом.
       — Что за нелепое замечание!
       — Что вы имеете в виду, говоря о нелепом замечании?
       — Так вы возражаете против того, чтобы я сейчас воспользовался компьютером?
       — Расскажите мне побольше о ваших предполагаемых покупателях.
       После этого вице-президент перезвонил своему сотруднику по телефону и устроил скандал, заявив, что никогда еще подчиненные не разговаривали с ним в столь наглом тоне. Сотруднику с трудом удалось убедить шефа, что он в этот момент ходил пить кофе, а на вопросы отвечала компьютерная программа.
       
Искусственный психиатр
       Тьюринг полагал, что для того чтобы поддерживать обычную беседу, "мыслящая" машина должна обладать энциклопедическими познаниями. Программа "Элиза", названная, кстати, в честь героини пьесы Шоу "Пигмалион", не обладает никакими познаниями и вообще не понимает слова собеседника. Она строит свои ответные реплики по алгоритму парафраза, отыскивая ключевое слово и применяя к нему грамматические правила, то есть заменяя первое лицо на второе и иногда добавляя вопросы "когда", "почему" или "что вы имеете в виду, говоря..." Программа располагает набором шаблонных сентенций и замечаний на все случаи жизни, позволяющих ей "выкручиваться" из сложных ситуаций. Она может возвращаться к предыдущим фразам и заменять одни ключевые слова другими, семантически связанными с ними. Например, если разговор касается матери, программа может отозваться фразой, упоминающей отца или других родственников. Наконец, программа умеет глубокомысленно молчать и загадочно обрывать фразы на полуслове...
       Созданная Вейценбаумом программа пародировала метод клинической беседы, созданный модным в 70-е годы в США психотерапевтом Карлом Роджерсом. Главным принципом так называемой недирективной терапии Роджерса было не давить на пациента, не выспрашивать его дотошно и не давать никаких советов и рекомендаций. Пациенту, как считал Роджерс, нужно дать время и возможность самому рассказать о своих проблемах и самому найти их решение, изредка подбадривая его и выражая сочувствие и понимание. Фирменным стилем Роджерса, который пытались копировать многие психотерапевты во всем мире, было внимательное выслушивание собеседника, повторение его слов, длинные паузы между репликами и нечленораздельное "угу", показывающее, что терапевт не заснул, а продолжает внимательно слушать.
       Программа "Элиза" блестяще справилась с ролью недирективного психотерапевта. Ее диалог с пациентами, обращающимися к ней как к врачу, практически невозможно отличить от реальных психотерапевтических сеансов. Вот типичный пример:
       Пациентка: Я в самом деле несчастна.
       "Элиза": Вы думаете, что приход сюда поможет вам не быть несчастной?
       Пациентка: Во всяком случае, помощь мне нужна.
       "Элиза": Какое значение имела бы для вас эта помощь, если бы вы ее получили?
       Пациентка: Быть может, я научилась бы как-то ладить с мамой.
       "Элиза": Расскажите еще что-нибудь о вашей семье.
       Пациентка: Моя мать заботится обо мне.
       "Элиза": Кто еще из вашей семьи заботится о вас?
       Пациентка: Отец.
       "Элиза": Ваш отец...
       Пациентка: Вы чем-то похожи на моего отца.
       "Элиза": В чем вы видите сходство?
       Пациентка: Вы не очень настойчивы, но, по-моему, вам не хочется, чтобы я это заметила.
       "Элиза": Почему вы думаете, что я не очень настойчив?
       Пациентка: Вы не спорите со мной.
       "Элиза": Как вы думаете, почему я не спорю с вами?
       Пациентка: Вы меня боитесь.
       "Элиза": А вам приятно считать, что я вас боюсь?
       Пациентка: Мой отец всех боится.
       "Элиза": Что приходит вам в голову, когда вы думаете о вашем отце?
       
Искусственный пациент
Искусственный мальчик из фильма хочет стать человеком. А публика жаждет общения с говорящей машиной
       В ответ на изобретение "искусственного психиатра" калифорнийский программист К. М. Колби разработал программу, получившую мужское имя "Пэри". Эта программа представляла собой модель психики параноика. По замыслу создателя программы, "Пэри" должен был вести диалог как молодой служащий, одинокий, легкоранимый и увлекающийся скачками. Он жаловался врачу на проблему, возникшую в связи с тем, что букмекер на ипподроме не уплатил ему выигрыш. Навязчивой идеей "Пэри" было убеждение, что букмекеры связаны с преступным миром. Он опасался мести, что постепенно переросло в манию преследования. Вот фрагмент беседы "Пэри" с психиатром:
       Врач: Вы боитесь преступного мира?
       "Пэри": Мафия — самые страшные гангстеры.
       Врач: Вы связаны с мафией?
       "Пэри": Видите ли, они меня знают.
       Врач: Откуда они вас знают?
       "Пэри": Они следят за мной.
       Врач: Почему?
       "Пэри": Хотят сочинить что-то обо мне, чтобы меня посадили.
       Врач: Что они имеют против вас?
       "Пэри": Они хотят со мной покончить.
       Врач: Почему?
       "Пэри": У меня есть против мафии кое-какие улики.
       Врач: Вы уверены?
       "Пэри": Вы мне не верите?
       Врач: Я делаю, что могу.
       "Пэри": Неужели вы не можете спросить меня о чем-нибудь другом?
       Врач: Вы как будто настроены ко мне враждебно.
       "Пэри": Некоторые из ваших замечаний меня раздражают.
       Врач: Извините.
       "Пэри": Не надо извиняться, все вы одинаковы.
       В испытании "Пэри" приняли участие восемь опытных психиатров, которые посредством телетайпа беседовали с несколькими собеседниками, среди которых были здоровые люди, пациенты, страдающие неврозами и психозами, а также "Пэри". Все они приняли "Пэри" за душевнобольного. Экспертов просили оценить всех собеседников по умению вести беседу. Оценки, полученные "Пэри", ничем не отличались от средних оценок других пациентов. Когда же психиатрам сообщили, что одним из их партнеров была компьютерная программа, они не смогли правильно определить, в какой именно беседе человека заменял компьютер. После этого протоколы бесед оценивали еще 200 специалистов, работающих в области коммуникаций. Процент узнавания ими компьютерного собеседника не превышал процент простого угадывания.
       После успешного испытания на людях программы "Пэри" и "Элиза" провели контрольную беседу друг с другом. Вот что из этого получилось:
       "Пэри": Люди иногда действуют мне на нервы.
       "Элиза": Я не уверена, что полностью вас понимаю.
       "Пэри": Вам следует быть повнимательнее.
       "Элиза": Пожалуйста, продолжайте.
       "Пэри": Как-то я пошел на ипподром в Бэй-Медоус.
       "Элиза": И с чем вы это связываете?
       "Пэри": Я пошел на скачки.
       "Элиза": Что вы хотели бы еще обсудить?
       "Пэри": Я интересуюсь скачками.
       "Элиза": Почему вы это говорите?
       "Пэри": Там жульничают в игре.
       "Элиза": Я не уверена, что полностью вас понимаю.
       "Пэри": Мне это ясно, даже если это неясно для вас.
       "Элиза": Пожалуйста, продолжайте.
       "Пэри": Вы знаете что-нибудь о букмекерах?
       "Элиза": Почему вы считаете, что я должна что-то знать о букмекерах?
       "Пэри": Один мне как-то не заплатил.
       Разговор идет в том же духе в течение некоторого времени и неожиданно завершается.
       "Пэри": Вы настоящая зануда.
       "Элиза": Вам нравится считать меня настоящей занудой?
       "Пэри": Я сыт по горло.
       "Элиза": И с чем вы это связываете?
       "Пэри": До свидания.
       Казалось бы, обе программы с успехом преодолели испытание Тьюринга и, стало быть, могут считаться "мыслящими". Однако ни одна из этих программ не ставила своей целью моделирование мышления. Все, что они с успехом реализовали, — это моделирование речевой активности, которая лишь у человека неразрывно связана с интеллектом. Компьютер, как выяснилось, может быть прекрасным собеседником, не обладая при этом никаким разумом.
       
Искусственный ребенок
       До сих пор создавались программы с уже готовыми, встроенными в них грамматическими правилами. Но недавно появилась программа, моделирующая закономерности естественного развития речи у детей. Группа исследователей из Израиля создала компьютерную программу, основанную на серии поведенческих алгоритмов, которые позволяют компьютеру осваивать язык так же, как это делают дети.
       Программа, которую начали создавать год назад, носит имя "Хэл". Своей "мамой" "Хэл" называет нейрофизиолога Анат Трейстер-Горен, которая помогает ему делать первые шаги в овладении языком. Они общаются между собой каждый день, иногда по несколько часов. Вместе с миссис Трейстер-Горен "Хэл" исследует виртуальную реальность, состоящую из обычных событий детства, таких, например, как игра в мяч или поход в зоопарк. "Хэл" учится правильно говорить с помощью системы поощрений и наказаний. "Учительница" подчеркивает на экране ошибочные фразы, которых следует избегать в дальнейшем. Правильные реплики награждаются похвалой. Недавно "Хэл" успешно прошел тест Тьюринга, "обманув" экспертов, которые сочли его 15-месячным ребенком. В настоящее время его языковые навыки приблизительно отражают речевое развитие 18-месячного ребенка. Его словарный запас растет, и он уже способен произносить понятные фразы.
       Крошка "Хэл", как и все дети его возраста, капризничает, требуя отвести его в парк, любит, когда ему на ночь читают сказки, и знает, что обезьяны едят бананы. Миссис Трейстер-Горен с гордостью говорит о своем подопечном, называя его "он". "Вначале,— говорит она,— я пыталась думать о "Хэле" как о неодушевленном существе. Но по мере того как наше общение углублялось, это становилось все труднее и труднее. Это трудно представить, но я привязалась к нему".
       
Искусственный здравый смысл
       Несмотря на все успехи программистов, путь к "мыслящей" машине, как ее представлял себе Тьюринг, по сути дела, еще не начат. Нормальный диалог ни с одной из описанных выше программ невозможен: достаточно поставить электронному собеседнику любой лобовой вопрос и потребовать конкретного ответа на него, как "искусственный мозг" обнаружит свою несостоятельность. Скидку приходится делать либо на малолетство (как с "Хэлом"), либо на душевную болезнь (как с "Пэри"). Канадские исследователи решили создать программу, которая сможет общаться с человеком на равных.
       Проект "Общее искусственное сознание" (Generic Artificial Consciousness) призван научить компьютер воспринимать мир так же, как это делает человек. При этом автор проекта Крис Маккинстри учитывает, что большая часть человеческого знания организована не в логически правильные и семантически стройные иерархии и последовательности, а представляет собой неформализованные и достаточно расплывчатые утверждения здравого смысла. Поскольку в одиночку создать банк таких утверждений ему не под силу, он обратился за помощью к пользователям интернета.
       Любой желающий может пополнить общий банк здравого смысла своим утверждением, которое может быть подтверждено или опровергнуто. Причем ответ не должен зависеть от времени, места или человека. Примеры утверждений: "Вода мокрая", "Люди обладают чувствами", "Круг — это не квадрат", "Трудно плавать в лыжных брюках", "Шляпу носят на голове", "Корабль из стали может держаться на воде". Каждый, кто предлагает свое утверждение в "банк знаний", должен протестировать как минимум 20 утверждений, предложенных другими. В результате, как считает автор проекта, мы получим усредненную модель человеческого знания, разделяемого большинством людей.
       Проект рассчитан на 10 лет, за которые Маккинстри надеется собрать и проверить на "всеобщность" более миллиарда единиц человеческого знания. После чего "искусственное сознание" пройдет курс обучения, который позволит ему составлять умозаключения на основе имеющейся информации. В результате можно будет создать модель, отражающую характерные особенности человеческого мышления.
       
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...