«Искусственный интеллект задает основной вектор нашей стратегии»
6 декабря на «Дне инвестора» Сбер представил новую стратегию до 2026 года. В ней компания сделала упор на развитие генеративного искусственного интеллекта, а также внедрение таких технологий в собственные продукты. Старший вице-президент, СТО, руководитель блока «Технологии» Сбербанка Андрей Белевцев рассказал «Деньгам» о том, каким он видит будущее AI, о мировой гонке вычислительных мощностей и нейроинтерфейсах.
Старший вице-президент, руководитель блока «Технологии» Сбербанка Андрей Белевцев
Фото: Предоставлено пресс-службой Сбербанка
— Андрей, 6 декабря Сбер презентовал собственную стратегию до 2026 года, большое место в ней компания уделила новым продуктам на основе генеративного искусственного интеллекта, а также потенциалу внедрения персонального AI-помощника для клиента. Расскажите, какие технологические аспекты вы считаете ключевыми в этом плане.
— Искусственный интеллект задает основной вектор нашей стратегии, так как мы уверены в том, что он будет очень быстро интегрироваться и внедряться во все сферы бизнеса. В этом есть две причины. Во-первых, LLM-модели будут ускоренно получать новые возможности, применимые практически в любой отрасли. Вторая причина в том, что внедрение компаниями продуктов на основе генеративного искусственного интеллекта куда проще, чем их разработка. Чтобы встроить такой продукт в рабочий процесс, не нужно обладать специальными знаниями, порог входа для пользователей минимален. Исходя из этого, мы видим для себя три ключевых вектора работы по этому направлению: развитие LLM-моделей, расширение облачной инфраструктуры, благодаря которой наши партнеры смогут внедрять искусственный интеллект в свои процессы с помощью интерфейса прикладного программирования (API), и третье — это упрощение непосредственно разработки приложений с использованием больших языковых моделей.
— В ноябре официальные лица OpenAI заявили о приостановке продаж подписки на ChatGPT из-за нехватки вычислительных мощностей. Это, на ваш взгляд, маркетинговый ход? Или интерес к подобным инструментам действительно растет опережающими темпами?
— Это заявление говорит об обостряющейся гонке мощностей, в которую оказались вовлечены крупнейшие технологические игроки, занятые разработками в области генеративного искусственного интеллекта. Прошлый год, когда был запущен ChatGPT, в этом плане можно назвать революционным. Да, за два года до этого существовал GPT-3 и у Сбера была своя версия GPT-3-модели (прим. RuGPT-3), но те модели не демонстрировали такого уровня понимания человека и не были такими полезными. Еще год назад мы не могли представить, что настолько продвинутая модель, способная поддерживать диалог с человеком, появится так быстро.
Что касается вычислительных мощностей — действительно, для обучения моделей задействуются большие вычислительные кластеры. И второй аспект, который мы часто упускаем из виду, заключается в том, что развитие прорывного продукта в этой области требует проведения экспериментов. То есть ты не просто ставишь одну версию модели на постоянное обучение, а параллельно проводишь определенное число экспериментов, связанных с новыми архитектурами, новыми версиями претрейна и так далее. Проще говоря, поисковое направление работы, R&D, также требует вычислительных мощностей. Таким образом, вычислительные мощности в этой области используются в трех направлениях — развитии имеющегося продукта, поисковых исследованиях и inference, то есть непосредственном применении модели.
OpenAI — это по факту сочетание двух компаний: некоммерческой исследовательской структуры и ее коммерческой «дочки». Первая занимается поисковыми исследованиями, а вторая коммерциализирует продукт. И у того факта, что компания испытывает нехватку мощностей, есть несколько причин. Первая заключается в том, что все компании бросились заниматься тем же самым, а вторая — у них действительно вырос спрос, который превысил технические возможности OpenAI. К тому же есть и внутренний фактор: судя по всему, в OpenAI сейчас идет конкуренция между распределением бюджетов на R&D и inference. И нужно понимать, что всем компаниям в мире не так просто наращивать вычислительные мощности.
— А как в Сбере решается вопрос балансирования между исследованиями и непосредственным применением искусственного интеллекта?
— Мы выстроили модель с эффективным взаимодействием R&D-команд, которые занимаются исследованиями новых архитектур, подходов и направлений модальности, и продуктивных команд, которые видят все эти наработки, берут те, которые оправдывают себя, и так далее. Их задача — создание продуктивной модели, и к ней уже предъявляются требования стоимостные, тот же inference по сути. Глобально в этом сегменте очень серьезная конкуренция, и ее нельзя выиграть в лобовую — живой силой или числом. И у меня есть основания предполагать, что наш подход к обучению моделей в несколько раз эффективнее, чем у коллег. Возможно, это связано в том числе с тем, что мы очень глубоко работаем со всем технологическим стеком. Так, например, последняя версия сервиса GigaChat, по результатам внутренней оценки в бенчмарке MMLU (Massive Multitask Language Understanding), превосходит самый популярный открытый аналог LLaMA 2 34B.
— Каким будет следующее поколение генеративных AI-инструментов? Какие задачи они будут решать и как будет со временем меняться их прикладная ценность?
— Я вижу здесь несколько ключевых направлений развития. Мы все идем к тому, чтобы сделать общение с искусственным интеллектом максимально похожим на человеческое общение. Для этого нужно делать упор на мультимодальность: увеличивать число объектов, с которыми может взаимодействовать генеративный искусственный интеллект, и при этом переключаться между ними бесшовно. Например, между голосом, текстом, картинкой, видео и так далее. Еще одно важное направление — это понимание AI-контекста взаимодействия. Проще говоря, ассистент должен понимать, какой тип ответа вам требуется в данный момент — общего плана или детальный. Для этого ассистенту необходимо обладать памятью: помнить, о чем вы спрашивали вчера или неделю назад, и на основе этих данных предоставлять вам наиболее релевантный ответ. С учетом того, как быстро развиваются технологии в этой области, развитие этих направлений мы увидим уже в 2024 году.
— Как со временем будет меняться интерфейс взаимодействия с искусственным интеллектом и когда наступит тот день, когда интерфейс вовсе не потребуется, например, благодаря нейроинтерфейсам?
— Этот вопрос уже сложнее. Я думаю, что нейроинтерфейсы изменят многое, но на первом этапе они будут медицинскими устройствами, где им потребуется показать высокую эффективность. Немедицинское применение нейроинтерфейсов — это уже следующий шаг, который потребует глубоких исследований и сертификации устройств. Это дорога не в года, а на десятилетие. В чуть более обозримом будущем я вижу перспективу применения AR-устройств. Крупнейшие компании уже экспериментируют с технологией и ее применением, но им еще предстоит решить вопрос удобного форм-фактора.
— На ваш взгляд, может ли широкое прикладное применение генеративных AI-технологий привести к потере рабочих мест и беспокойству граждан из-за подобных перспектив?
— Внедрение каждой новой прорывной технологии с большими перспективами применения в различных областях сопровождается подобным беспокойством. Но здесь нужно осознавать, что людей пугает неизвестное. Чтобы избежать такого эффекта, нужно усиливать информирование людей о том, как устроена технология и какую практическую ценность она может для них нести. Что же касается потенциальной потери рабочих мест — я думаю, что в перспективе под ударом могут оказаться сферы деятельности, которые не требуют от сотрудников глубоких компетенций. Но на эту ситуацию можно и нужно смотреть с другой стороны — со стороны того, как генеративный AI может сделать работу человека эффективнее, сократить объем рутинных задач. Наш программный интерфейс GigaChat API упрощает и ускоряет работу с текстами, помогает писать статьи в заданном стиле и формате, быстро находить нужную информацию в больших документах, готовить аналитические отчеты. С помощью нейросетевой модели Сбера можно вывести на новый уровень развития голосовых и текстовых роботов. Мы уже активно внедряем модель во все наши банковские процессы.
У нас также есть курс по промпт-инжинирингу: мы обучаем людей, как взаимодействовать с генеративными моделями и получать от них что-то новое и полезное.
Кроме того, для популяризации технологий мы ежегодно проводим конференции SmartDev и AI Journey, где российские и международные эксперты рассказывают о том, какие супервозможности открывает искусственный интеллект для человека. Наши эксперты практически по всей стране проводят отдельные треки, в которых рассказывают людям, бизнесу, властям, как AI-трансформация и генеративный AI могут способствовать росту качества жизни и благополучия регионов.
— Как нужно подходить к регулированию искусственного интеллекта? С одной стороны, я слышу тезисы о том, что развитие технологий нужно загонять в нормативные рамки, с другой — о том, что жесткое регулирование серьезно затормозит развитие направления.
— Как вы знаете, Сбер является одним из учредителей Альянса в сфере искусственного интеллекта и авторов Кодекса этики в сфере AI. И, на наш взгляд, наиболее продуктивен сбалансированный подход, при котором саморегулированием отрасли занимаются ее игроки. Дело в том, что те страны, в которых будет введено неоправданно жесткое регулирование развития технологий искусственного интеллекта, рискуют оказаться в числе отстающих и, как следствие, будут вынуждены пользоваться не своими, а чужими технологиями.