Вину не делят на двоих
Как ошибки чат-ботов сказываются на бизнесе
Менеджеры стали чаще обвинять искусственный интеллект в собственных провалах. На этот тренд обращает внимание РБК. Якобы такой аргумент может сгладить конфликт с руководством, которое внедряет ИИ в бизнес-процессы. Нейросети, как выяснил “Ъ FM”, уже стали посредниками в корпоративных спорах. Им стали чаще доверять, а они — ошибаться. Тему продолжит Аэлита Курмукова.
Фото: Евгений Павленко, Коммерсантъ
Фото: Евгений Павленко, Коммерсантъ
43% российских компаний применяют нейросети. В разработку и внедрение ИИ только в прошлом году бизнес вложил 203 млрд руб. Эти цифры звучали на Петербургском экономическом форуме. И, казалось бы, тренд будет нарастающим, но компании могут взять паузу, не исключают собеседники “Ъ FM”.
Искусственный интеллект стал чаще ошибаться, что уже приводит к юридическим разбирательствам, в том числе в банковской сфере, делится основатель сервиса GoExpert Никита Абраменко: «Самая распространенная история — чат-боты и ассистенты в чат-ботах. Были такие ошибки, топ-5 в российском банке: человек сделал запрос о состоянии счета, на который должна была быть зачислена крупная сумма, он задает вопрос в чат, подразумевая, что ему ответит оператор, а суммы нет. То ли сумму заблокировали, перевод заблокировали. Клиент тут же пишет претензию и описывает в ключе, что сейчас подаст в суд. При этом деньги в какой-то момент поступают, а бот говорит, что их нет. Претензия поздно попадает в разбор. В общем, в данном случае все удалось урегулировать досудебно.
Мы в итоге придем к концепции: какая разница для клиента, чат-бот ошибся или человек? Банк будет выплачивать».
Но и для банка не особо важно, кто виноват — сотрудник или нейронка. Все риски учтены. А вот количество и качество консультаций чат-ботов уже выше, чем выдает человек, отмечают собеседники “Ъ FM”. Но в других сферах ошибка ИИ может стоить репутации. А нейронка уже заменяет юристов, говорит советник практики интеллектуальной собственности компании ЭБР Артем Евсеев: «Нужно быть настороже. Если мы говорим про поиск судебной практики, нейросети грешат тем, что додумывают. Многие судебные дела, особенно практика, просто не публикуются. Мы как раз столкнулись с одним таким кейсом, речь шла не про иск, а про претензию. Оппонент подготовил ее, сославшись на определенные судебные дела, которые мы не смогли найти, и было очевидно, что он их придумал. Он хотел сэкономить на юристах или не мог нормально найти судебную практику и обратился к нейросети. Потом человек понял, что игра не стоит свеч, либо придется нанимать юриста и тратиться на соответствующие расходы, и в итоге спор не дошел до суда».
Но главная проблема ИИ — его галлюцинации, говоря языком айтишников. Нейросети могут выдать ложные данные, и если не находят нужную информацию, то просто ее придумывают, выдавая за правду. А это серьезные риски для бизнеса, говорит сооснователь и член совета директоров Twiga Communication Group Карина Оганджанян: «Мы поняли, что уровень ошибки ИИ может стоить нам как минимум репутации. Выдаем цифры по изменению или по динамике рынка: сколько потратили на маркетинг или медиа, какой рост в этом сегменте или этого бренда и так далее.
Попытались это сделать при помощи ИИ и поняли, что последствия его ошибки могут быть грандиозными.
Стратегические мысли на этом основании делать нельзя точно. Например, вы представляете, какие последствия могут быть в фарме, если вдруг дать какую-то неточную информацию. А мы столкнулись с проблемой, что искусственный интеллект, например, не дает точных картинок внутренних органов. Поэтому все это еще далеко от совершенства. Ответственность лежит на человеке, он ставит задачу искусственному интеллекту и должен перепроверять любые данные, которые получает».
Но если посмотреть на мировую статистику, то нейронкам чаще доверяют, чем перепроверяют, и не только среднее звено. По данным компании IBM, 44% руководителей уже признают, что внедряют искусственный интеллект без достаточных механизмов надзора. И четверть менеджеров, как показывают соцопросы, всерьез готовы переложить свои промахи, в том числе, на ИИ, который выдал неправильный алгоритм.