Машина рассудит

Может ли искусственный интеллект управлять людьми

С развитием технологий искусственный интеллект (ИИ) с каждым годом все прочнее проникает в самые разные сферы жизни общества. Однако случаи, когда алгоритмы фактически начинают управлять сотрудниками, а в некоторых случаях даже могут влиять на решение об их увольнении, вызывают серьезные опасения экспертов. Впрочем, они не исключают, что подобная «бездушность ИИ-боссов» может вызвать и положительный эффект, упростив микроменеджмент и исключив пристрастное отношение к подчиненным.

Фото: Евгений Павленко, Коммерсантъ  /  купить фото

Фото: Евгений Павленко, Коммерсантъ  /  купить фото

Военные — за этичное применение ИИ

На минувшей неделе Министерство обороны Австралии выпустило специальный доклад, посвященный не только эффективному, но и этичному использованию ИИ в оборонных технологиях. Этот документ, являющийся, по сути, программой использования ИИ в ВПК страны, стал результатом двухлетней совместной работы не только военных, но также исследовательских компаний и общественных организаций.

«Заблаговременная разработка этической и юридической концепции использования ИИ может помочь в обеспечении должного уровня ответственности ИИ перед людьми»,— говорится в документе.

Вопрос этичного использования ИИ в системах, которые позволяют руководить живыми людьми или давать им какие-то указания, уже вызывает ожесточенные споры экспертов и успел привести к скандалам. Еще с 2014 года интернет-ритейлер Amazon начал применять искусственный интеллект для подбора кадров, однако в конце 2018 года компания отказалась от использования этой программы, поскольку та отдавала предпочтение мужчинам и игнорировала женщин. Объяснялось это тем, что программа была настроена на отбор с учетом всего объема данных по кадровому составу компании за последние десять лет. А за этот период большинство заявлений об устройстве на работу поступало именно от мужчин.

С 2018 года тот же Amazon начал интегрировать ИИ в менеджерскую работу, однако через год СМИ узнали, что система по оценке эффективности сотрудников выносила решения, которые могли привести к фактическому увольнению отдельных людей.

В одном из служебных документов компании говорилось, что «система отслеживает производительность сотрудников и автоматически выдает предупреждения о возможности увольнения, нередко без какого-либо контроля со стороны живых людей».

Сама компания отрицала тот факт, что решения об увольнении мог принимать алгоритм, однако дала довольно расплывчатое объяснение. «Как и во многих других компаниях, у нас есть определенные ожидания по продуктивности сотрудников,— заявили представители Amazon.— Мы поддерживаем людей, которые не могут достичь определенного уровня производительности, предоставляя им соответствующих наставников и возможность улучшить ситуацию. Мы бы никогда не уволили сотрудника, прежде не удостоверившись в том, что он получил полную поддержку с нашей стороны».

Добрым словом и автоматом

В интервью BBC старший партнер по бизнес-консалтингу в компании Deloitte Джефф Шварц отметил, что в каких-то аспектах повседневной жизни человек уже слепо следует указаниям машин, будь то алгоритм, определяющий кратчайший путь до места назначения с учетом пробок, получение заказов таксистами агрегаторов типа Uber или даже работа светофоров. «Раньше за работой светофоров следил человек, который направлял машины в том или ином направлении,— подчеркивает эксперт.— Но теперь в этих системах все чаще используется ИИ, который начинает направлять потоки в зависимости от загрузки дорог».

В свою очередь, основатель консалтинговой компании FutureScape 248 Шивви Джарвис считает, что необходимо уже сейчас задуматься над тем, нужно ли устанавливать некий «этический контроль» над ИИ.

«Если ваш босс — ИИ, фактически вами командует кусок какого-то ПО. Это очень беспокоит и может привести к будущему в стиле антиутопии,— полагает господин Джарвис.

— Система, у которой не будет должного этического контроля или надзора, реального живого человека, который будет понимать то, как она принимает решения, может быть очень опасной, она может стать реальной угрозой».

Нечто подобное уже стало сюжетом для Голливуда. Еще в 2004 году вышел фильм «Я, робот», снятый по мотивам нескольких рассказов известного писателя-фантаста Айзека Азимова. В фильме система ИИ под названием ВИКИ (Виртуальный интерактивный кинетический интеллект) принимает решение о том, что люди, долгое время воевавшие друг с другом и загрязнявшие окружающую среду, неспособны обеспечить собственную безопасность и безопасность планеты, и отдает приказ подчиняющимся ей роботам ограничить свободу действий людей, которых воспринимает как неразумных детей.

Ударим алгоритмом по микроменеджменту и разгильдяйству

Впрочем, в экспертной среде также звучит мнение о том, что условный ИИ-начальник поможет избавиться от неэффективности и даже вреда, который нередко исходит со стороны живых руководителей. Директор по исследованиям в области оценки человеческих талантов в рекрутинговой корпорации Manpower Group и профессор психологии Колумбийского университета Томас Чаморро-Премузич считает, что ИИ-начальник может сократить масштабы таких злоупотреблений, как, например, домогательства мужчин-руководителей к женщинам-подчиненным.

«Даже самая навязчивая и назойливая форма ИИ вряд ли сможет повторить извращенное поведение некоторых управленцев. ИИ не получает никакой личной выгоды от поступков, которые нарушают профессиональные или личные границы или злоупотребляют властными полномочиями по эксплуатации подчиненных. Говорите что хотите про ИИ, но алгоритм вряд ли будет сексуально домогаться до людей.

Технологии ИИ должны достичь какой-то абсолютно немыслимой степени развития, чтобы возник настолько извращенный алгоритм, который бы унижал людей, получая садистское удовольствие»,— полагает ученый.

«Алгоритмы не смогут раздувать свое эго, чтобы почувствовать себя лучше,— полагает господин Чаморро-Премузич.— Если это когда-нибудь произойдет, можно будет признать, что ИИ может воссоздать человеческую слабость, но не разум. Даже самый гадкий ИИ никогда не будет таким же гадким, как гадкий босс. Нам не нужен ИИ, чтобы на рабочих местах была предвзятость или несправедливость,— они уже там находятся. Даже если ИИ не сможет их снизить, он вряд ли сможет сделать ситуацию хуже».

Евгений Хвостик

Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...