ИИ вместо начальника

Можно ли передать принятие управленческих решений на усмотрение алгоритмов

«Использование искусственного интеллекта (ИИ) в управлении становится все более актуальным в условиях быстрого развития технологий и потребности в повышении эффективности бизнеса. Так, в Южной Корее уже запустили целые компании под управлением ИИ, а в России такими экспериментами занимается Сбербанк»,— уточняет директор по ИИ корпорации «Синергия» и эксперт Альянса в сфере искусственного интеллекта Андрей Комиссаров. Однако остается открытым вопрос: можно ли полностью доверить алгоритму управленческие функции?

Фото: Евгений Павленко, Коммерсантъ

Фото: Евгений Павленко, Коммерсантъ

«Искусственный интеллект, который управляет компанией,— это не просто языковая модель типа ChatGPT, а сложный ансамбль, включающий “дерево” принятия решений, базы данных, долговременную память и саму модель для общения»,— поясняет господин Комиссаров. По его словам, ИИ значительно лучше человека выполняет задачи, которые подразумевают большой объем данных, обрабатываемых в реальном времени: это разного рода аналитика, статистика, R&D и исследовательские задачи, в том числе поисковая проверка новых гипотез.

По словам господина Комиссарова, в ряде направлений такие решения могут быть весьма эффективными, и среднестатистическая компания может успешно функционировать под управлением ИИ. «Искусственный интеллект способен на более высоком уровне понимать потребности сотрудников и вести взаимодействие с ними, что может значительно повысить мотивацию в крупных корпорациях. При этом он может обеспечить большую беспристрастность, нежели человек-руководитель, который зависит от эмоций. Кроме того, ИИ, в отличие от человека, всегда будет придерживаться заданных правил общения, что в конечном счете позволяет создать более позитивную атмосферу для сотрудников»,— резюмирует собеседник.

«Граница возможностей ИИ проходит там, где требуется эмоциональный интеллект, креативность или этические суждения,— говорит директор департамента расследований T.Hunter Игорь Бедеров.— Например, разрешение конфликтов в команде или формирование корпоративной культуры остаются прерогативой человека».

«При этом ИИ может воспроизводить и усиливать системные ошибки, основанные на культурных предубеждениях, отсутствии контекста и быстром внедрении ошибочных практик. Например, если алгоритм обучен на данных, где исторически имели место случаи предвзятости, то он будет продолжать воспроизводить эти ошибки,— отмечает господин Бедеров.— Это может привести к масштабированию неэффективных и даже вредных управленческих практик, таких как несправедливое распределение ресурсов или выбор сотрудников».

Важный вопрос, который следует рассматривать при внедрении ИИ в управление,— это влияние на мотивацию сотрудников. По словам директора по персоналу HR-платформы Skillaz Ксении Степановой, ИИ может как повысить мотивацию, так и подорвать ее, в зависимости от того, как он используется. В качестве примера она привела компанию Amazon, где ИИ помогает выстраивать персональные траектории роста сотрудников, что создает ощущение справедливости и внимания к индивидуальности.

«Но там, где ИИ превращается в инструмент тотального контроля,— например, через системы трекинга продуктивности или через непрозрачное распределение задач,— возникает отчуждение,— отмечает госпожа Степанова.— Сотрудники чувствуют себя под надзором, решения кажутся нечеловеческими и формальными. Так, в Dell ИИ-система оценки помогла сократить текучесть, а в Uber аналогичный подход вызвал протесты из-за жесткости».

По мнению генерального директора MWS AI Дениса Филиппова, крайне важно избегать антропоморфизации искусственного интеллекта. «Несмотря на использование термина “интеллект”, нейросети не оперируют категориями “хорошо” или “плохо”, “правильно” или “неправильно”, а тем более не принимают решения — эти параметры задаются исключительно разработчиками,— отмечает он.— Поэтому ответственность за действия ИИ-систем лежит на тех, кто создавал и настраивал их алгоритмы».

«Также стоит отметить, что искусственный интеллект не может принимать решения в сфере этики, креативности или эмоционального интеллекта, что делает его неприменимым в ситуациях, требующих морального выбора,— добавляет Денис Филиппов.— В таких случаях решения должны оставаться за человеком».

«Важно помнить, что ключевым моментом является то, как воспринимается ИИ. Он должен быть союзником, а не надсмотрщиком»,— заключает Ксения Степанова.

Сейчас ИИ лишь инструмент, ответственность за решения которого лежит на его создателях и пользователях. Однако в будущем могут возникнуть юридические вопросы, когда ответственность за решения ИИ будет неочевидна. Как справедливо замечает заместитель директора НОЦ ФНС России и МГТУ им. Н. Э. Баумана Алексей Ершов, в будущем компании могут столкнуться с ситуациями, когда решение ИИ окажется спорным, а ответственность за его результаты придется делить между разработчиками, пользователями системы и самими алгоритмами.

«Кажущаяся самостоятельность ИИ по-прежнему строго ограничена заданными алгоритмами и инструкциями,— отмечает Денис Филиппов.— Даже в случае появления так называемого сильного ИИ (AGI) в ближайшие пять лет ответственность за постановку задач и применение результатов останется за человеком».

Мария Орбелиани