Искусственный интеллект — наша сила или слабость

Владимир Арлазаров о феномене ChatGPT и отличиях LLM от предметного ИИ

Вокруг искусственного интеллекта сегодня не утихают споры: кто-то считает его модным, но пустым трендом, другие видят в нем панацею, способную изменить к лучшему все аспекты человеческой жизни. Эти ожидания сопровождаются путаницей в терминах: большие языковые модели (LLM), чат-боты, предсказательные модели и системы распознавания нередко ставятся в один ряд, несмотря на разницу в возможностях и назначении.

Владимир Арлазаров

Владимир Арлазаров

Владимир Арлазаров

В одних случаях искусственный интеллект уже приносит реальную пользу: помогает в медицине, распознает документы, автоматизирует рутину, берет на себя бюрократию. Где-то польза не ясна, а где-то его применение и вовсе оборачивается серьезными рисками. О разнице между большими языковыми моделями и предметным искусственным интеллектом, рисках и перспективах развития ИИ «Ъ-Науке» рассказал генеральный директор Smart Engines доктор технических наук Владимир Арлазаров.

— Сегодня все чаще звучит мнение, что современные большие языковые модели вроде ChatGPT — это скорее продвинутые чат-боты, чем настоящий ИИ. Что вы думаете на этот счет?

— Мы давно живем в эпоху активного применения искусственного интеллекта, и игнорировать большие языковые модели в этом контексте — значит подменять понятия. Разумеется, ChatGPT — это ИИ. В нем человечество увидело шанс обрести идеального собеседника. И это недалеко от истины: он может удачно прикидываться таким собеседником, поддерживать разговор на любую тему. Хотя порой смысл таких бесед бывает довольно расплывчатым.

Когда ChatGPT только появился, люди были восхищены. И это неудивительно: ИИ произвел сильнейшее впечатление своей способностью вести связный диалог. Однако довольно быстро эйфория прошла: иллюзия близости к интеллектуальному прорыву рассеялась, и наступило своего рода отрезвление. Так охладевает интерес к новому яркому знакомому, который хоть и харизматичен, но все время говорит ни о чем.

— Значит ли это, что ChatGPT не оправдал возложенных на него надежд?

— Зависит от того, какие и у кого были надежды. ChatGPT — это блестящий языковой интерфейс, превосходно справляющийся с рядом лингвистических задач. У больших языковых моделей огромная память, и они умеют извлекать из нее информацию, подставляя ее в нужный контекст. Именно поэтому ChatGPT можно эффективно применять, например, для оценки тестов на компетентность: чем выше результат у чат-бота, тем слабее сам тест, поскольку его можно пройти, используя одну лишь память.

Если рассматривать ChatGPT как интерфейс взаимодействия «человек—машина», то это действительно выдающееся достижение. Но творить себе кумира в любом случае не стоит. Человеку свойственно тщеславие — он мечтает о рабе, который все делал бы вместо него, пока он отдыхает, да еще и поддакивает, щекоча чувство собственной важности владельца. Заметим, что с последним пунктом современные чат-боты справляются на отлично.

— А что с выполнением работы?

— У чат-ботов, честно говоря,— пока не очень. Оттого и наступило разочарование. Однако для работы уже существует другой, вполне успешный инструмент — так называемый предметный искусственный интеллект. Он с помощью математических методов решает конкретные прикладные задачи. Сегодня в этой области искусственного интеллекта мы наблюдаем настоящие технологические прорывы. Просто они не так заметны на фоне ажиотажа вокруг «говорящих машин», в которые люди охотно верят.

В «Маятнике Фуко» писатель и публицист Умберто Эко вложил в уста своей героини яркую и верную мысль: никто не слушал Земмельвайса, когда тот говорил врачам дезинфицировать руки, перед тем как браться за рожениц. Он говорил неинтересно. Люди охотнее верят в лосьоны против лысины. Нелогичное для них означает близкое к чуду.

— Где используется предметный ИИ?

— Его можно встретить в технологиях распознавания лиц, предиктивной аналитике, системах для разработки лекарств или, например, в системах прогнозирования погоды. В таких случаях говорят об автоматизации процесса — ИИ полностью берет на себя трудоемкую рутину, освобождая человека для более ответственных задач. И это дает реальную экономическую пользу.

Предвестником прорывов в предметном ИИ стали шахматные программы в 1970-х, когда машина впервые начала играть лучше человека. Сегодня, спустя полвека, мы видим невероятные примеры специализированных систем, которые трансформируют целые отрасли. Например, в медицине ИИ уже помогает анализировать КТ-снимки. Диагноз по-прежнему ставит квалифицированный врач, но на этапе диагностики алгоритмы играют важнейшую вспомогательную роль.

Фото: Игорь Иванко, Коммерсантъ

Фото: Игорь Иванко, Коммерсантъ

— Есть ли подобные достижения в вашей сфере?

— Безусловно. Один из ярких примеров — автоматическое распознавание документов при приеме на работу. Раньше кадровику приходилось вручную переносить данные о новом сотруднике в корпоративную систему. На оформление одного человека могло уходить до часа рабочего времени. А при массовом найме — десятки и сотни сотрудников за короткий срок — человек просто не справлялся.

Предметный ИИ позволил автоматизировать этот процесс. Причем современные системы не только быстрее и точнее кадровиков, но зачастую и компетентнее. Они «знают» больше типов документов — от паспорта РФ или водительских прав Казахстана до зарубежных ID-карт или, скажем, удостоверений сварщика и прав тракториста. ИИ понимает, как выглядят документы, какие данные из них нужно извлечь, и делает это надежнее и значительно быстрее. Он не просто заменяет человека — он выполняет эту работу принципиально лучше.

— А как обстоят дела с генеративным ИИ?

— У генеративного ИИ тоже есть значимые достижения. Он, например, способен создавать новые конструктивы, которые не пришли бы на ум человеку. Потому что ИИ мыслит утилитарно: он стремится решить задачу, не отвлекаясь на эстетические или этические аспекты, которые могут сдерживать человека.

Но тут возникает важный вопрос — вопрос ответственности. Если ошибается человек, он несет за это ответственность. А если ошибку допускает ИИ и она приводит к тяжелым последствиям, кто виноват? Разработчики? Пользователи? Это порождает опасную зону безответственности.

— Сегодня часто говорят о «галлюцинациях» искусственного интеллекта. В чем причина этого явления и насколько оно опасно?

— Большие языковые модели подбирают каждое слово своего ответа, опираясь не на факты, а на статистику существующих текстов. Часто это срабатывает, поскольку живые люди уже написали много хороших книг, статей и советов на форумах. Но если модели не на что опереться, то точность ее ответов падает катастрофически. И здесь кроется главная опасность: модель может уверенно заявлять о несуществующих фактах, выдумывать источники и путать термины, но ответ все равно будет выглядеть правдоподобно, гладко, ведь ее учили именно этому. Мы определяем, что человек заврался, по тому, что он теряет уверенность и тем самым выдает себя. С языковыми моделями такого не происходит. Соврет и не покраснеет. Ну, красную лампочку не зажжет.

Люди верят, принимают решения, увольняют сотрудников или совершают финансовые сделки, а потом расплачиваются за излишнюю доверчивость. Иск предъявить ИИ невозможно. Хотя не исключено, что такие судебные дела мы еще увидим. Показательный случай — недавнее судебное разбирательство в США, где в решении суда были обнаружены вымышленные цитаты и ложные ссылки, сгенерированные ИИ. Это подчеркивает риски использования подобных систем в государственных институтах.

— Следует ли запретить использование LLM в критически важных сферах?

— Запрещать — нет. ChatGPT — это, безусловно, гениальное изобретение, просто не стоит делать его панацеей и пытаться использовать не по назначению. Представьте, что вы используете клещи в задаче, где требуется пинцет.

Применять LLM следует только в строго контролируемых условиях, где можно заранее оценить и принять возможный риск. Проблема в том, что сегодня генеративные модели используют там, где цена ошибки слишком высока: в юридической экспертизе, медицине, финансах. А ведь ни одна генеративная модель не дает гарантии достоверности.

Чтобы снизить риски, разработчики используют подходы вроде RAG — Retrieval-Augmented Generation: модель сначала обращается к достоверным источникам, а потом формирует ответ. Это верное направление, но оно не решает основную проблему: у модели нет понимания, опыта или логики — только вероятности.

— Можно ли решить проблему галлюцинаций, если систематически перепроверять ответы?

— Если на ручную проверку ответов ИИ уходит много ресурсов, то экономическая выгода от ИИ теряется. И проверять должен знающий и опытный человек, потому что галлюцинации выглядят правдоподобно и легко ускользают от внимания неспециалиста.

В случае с чат-ботами и генераторами картинок сегодня мы имеем дело с индустрией развлечений. Это важно понимать, чтобы не переоценивать возможности генеративных систем. Они пока больше развлекают, чем решают реальные задачи. И, к сожалению, экономическую выгоду от них сейчас получают разве что мошенники, создающие фейки и имитирующие личности.

— Многие уверены, что мы движемся к универсальному ИИ, к так называемому AGI. Это вопрос времени?

— Возможно, когда-то человечество и создаст универсальную систему, способную обобщать знания, адаптироваться к любой области и решать широкий спектр задач. Но сейчас нам гораздо нужнее не универсальный искусственный интеллект, а надежные специализированные ИИ-системы.

Нужен искусственный интеллект, который освобождает от рутины — врача, кадровика, банковского сотрудника. Который действительно облегчает жизнь, а не имитирует общение. Словом, ИИ должен быть реальной и полезной технологией, а не ее иллюзией.

— Значит, будущее за предметным ИИ?

— Надеюсь, будущее все-таки за человеком и за человечеством. ИИ должен стать таким же инструментом, как топор, молоток, станок, паровая машина или калькулятор. А если следовать за вау-эффектом, мы рискуем остаться с «прорывами», за которыми не стоит ничего реального.

Подготовлено при поддержке Smart Engines