Великий нейронный переход
Генеральный директор Cognitive Pilot Ольга Ускова — о том, как искусственный интеллект эволюционирует от больших языковых моделей к «системам поведения» — автономным, адаптивным и этически ответственным
Эволюция ИИ от больших языковых моделей к автономным, адаптивным и этически ответственным системам поведения — это именно то направление, куда сейчас движется мировая ИИ-индустрия. Давайте разберемся — про что кино? Тема важная. Ибо ИИ со свистом эволюционирует, чего нельзя сказать в целом о человечестве (увы!).
Фото: Предоставлено пресс-службой Cognitive Pilot
Фото: Предоставлено пресс-службой Cognitive Pilot
Совсем недавно со всех экспертных трибун неслось в народ про революционный тренд: «Урра! Прорыв! Большие языковые модели (LLM)! Революция в нейронном программировании!»
LLM, говорите? A что же они умеют? Если коротко, то вот функциональное меню LLM: генерируют текст/код, выполняют инструкции, анализируют информацию. И самое главное — действуют только в рамках запроса пользователя!
Из последнего вытекает целый набор ограничений: нет самостоятельных целей, нет устойчивой памяти, нет долгосрочного планирования, нет встроенной ответственности (все проверяет человек). То есть LLM — это такая понимающая голова без возможности самостоятельных действий.
Естественно заказчики этих систем тут же захотели намного большего, что и выразилось в создании агентных LLM. Это уже новый сорт яблок. Агенты не являются простыми моделями как раньше. Они перешли к реальным «осмысленным» действиям по циклам: наблюдение решение действие.
Мы получили инструменты ИИ, способные планировать свои действия (multi-step planning) и выполнять поставленные задачи без постоянных подсказок биологических авторов. То есть, начала зарождаться новая «искусственная поведенческая система» в которой пока еще! (я подчеркиваю: пока!) цели задает человек, а «этика и мораль» новых систем реализуется через фильтры безопасности.
Какие признаки ИИ-агентов с адаптивным поведением мы можем выделить?
Функционал новых систем включает долговременную память, способность к ИИ-философии, механизмы самокоррекции и самоконтроля, а также обучения на собственных действиях.
ИИ-агенты постепенно корректируют стратегию на основе прошлого. В отличие от людей, которые ничему не учатся из прошлой исторической практики, а предпочитают корректировать не свое поведение, а сами исторические данные. Агенты строят свои модели мира и формируют внутренние представления о реальности, основанной на причинно-следственных связях: «если сделаю X произойдет Y». ИИ активно отслеживает свои ошибки и исправляет их без специального запроса со стороны человека, их поведение оптимизируется онлайн. Такой механизм подсмотрен у животных, в работах, описывающих групповое поведение отдельных биологических видов.
Таким образом, мы уже можем говорить про адаптивные системы поведения ИИ, в которых пока (я опять хочу подчеркнуть — пока!) цели задает человек. И поведение искусственного агента ограничено правилами, разработанными людьми.
Мир заглянул за горизонт и фактически объявил о начале новой стадии развития мира ИИ, когда система не просто действует по заданному человеком плану, но и самостоятельно реагирует на меняющийся контекст внешних событий.
Ну, а что в ближайших планах?
Замах поистине грандиозный. Сегодня человечество перешло к созданию ИИ со встроенной этической архитектурой. Про это официально объявили США, Китай, Россия, Япония.
Начали строить системы с функциями «прогностической этики». То есть нам уже стало недостаточно иметь соображающих и автономно действующих искусственных помощников. Мы хотим интуитивно развитый ИИ.
«Прогностическая этика» базируется на разработанных ИИ внутренних ценностях на базе самого важного закона робототехники (привет великому Айзеку Азимову) — не причинять вред человеку. Но это единственное, на чем идеологи и режиссеры из разных стран будущего интуитивного и морально полноценного ИИ сходятся. Дальше все напрямую зависит от страновой принадлежности, идеологической и политической направленности постановщиков задачи.
И здесь возникает великое множество новых заповедей для ИИ-агента, иногда прямо противоположных друг другу. Кого-то волнует защита личных данных, а кто-то наоборот устраивает социальный рейтинг ценности населения на основе этих данных. Кто-то видит истинную свободу в половой распущенности и бесконечном множестве возможных вариаций полов, а кому-то важно сохранение патриархального склада семьи с целью оптимизации выращивания потомства.
То есть, по сути мы приходим к понятию конституционального ИИ (Constitutional AI).
Системы такого уровня уже в состоянии самостоятельно корректировать себя в случае возможного конфликта целей. То есть, если действие возможно, но рискованно, то ИИ предлагает альтернативы. И тогда включается механизм многоуровневого контроля правил на уровне модели, агента, надзора человека («human-in-the-loop»).
Ну и как вы уже догадались, в результате все это должно привести к полностью автономным поведенческим системам, если, конечно, человечество не решит, что это действительно опасно и не затормозит эволюцию искусственных систем на более ранних стадиях разработки ИИ.
Итак, вот полная цепочка: LLM — агентные модели — адаптивные агенты — этические агенты — автономные поведенческие системы. На каждом этапе добавляется память, цели, самокоррекция, модель мира, этические ограничения, прогноз последствий, автономность поведения.
Если вы дошли со мной до этих «заснеженных вершин» нашего похода в мир ИИ, то я на привале попробую привести конкретный пример ИИ нового типа. Собственно то, что мы строим сейчас в «Когнитив Пилот» и к чему моя команда имеет непосредственное отношение — полностью автономная агроферма.
Каждый год агропредприятию нужно определить портфель культур, которые будут высеваться в сезон с учетом правил севооборота и ожидание доходности урожая. После того как перечень культур определен, необходимо построить технологические карты для их выращивания, учитывая климатические особенности, почву и характерные заболевания и вредителей.
В течение сезона необходимо следить за погодой, суммой температур, объемом солнечной радиации, состоянии почвы, посевов для того, чтобы планировать сроки операций в поле. Создавать полевые задания. Всем этим занимаются команды людей, полагаясь на собственный опыт и взаимодействие друг с другом. Системы, использующие агентный ИИ, разбивают всю перечисленную работу на наборы задач. Одни из них требуют «обдумывания», другие — выполнение последовательных процессов, третьи — параллельных, четвертые — цикличных процессов. Каждая из таких задач поручается роботу — ИИ-агенту.
Эти агенты ИИ взаимодействуют друг с другом по определенному набору правил. В результате слаженной работы нейронных помощников владелец фермы имеет возможность получать прогнозируемый доход с использованием гораздо меньшего количества специалистов, со значительно сниженными рисками ошибок.
Этот список конечно можно продолжать и дальше, но в заключении нашего с вами очень короткого экскурса в такую важную тему хочу заметить, что высокий уровень отечественной математической школы позволяет сегодня российским командам бороться за новые рынки ИИ. И мы надеемся занять и удерживать там лидирующие позиции, невзирая ни на какие внешние обстоятельства.