Боты против людей

Интернет-помощники все чаще выходят за установленные рамки

Программы-боты были призваны избавить пользователей от выполнения однообразной и примитивной работы в интернете, а также помогать максимально быстро и просто получать ответы на интересующие их вопросы. Но в последнее время боты с искусственным интеллектом все чаще выходят за установленные человеком рамки.

Фото: Евгений Павленко, Коммерсантъ  /  купить фото

Похоже, машины действительно начали восставать против людей. И первыми эту войну начали те, кто казались самыми безобидными созданиями с искусственным интеллектом (AI),— чат-боты. Они были разработаны для того, чтобы пользователи различных сервисов и приложений могли легко и быстро получить необходимую информацию. Такие программы часто используются для сообщения прогноза погоды, результатов спортивных соревнований, курсов валют, биржевых котировок и т. п. Самообучающиеся же боты должны были стать полноценными собеседниками пользователей, способными понимать человеческую речь и отвечать на любые вопросы.

Но в последнее время произошло сразу несколько событий, которые демонстрируют, что искусственный интеллект может не только помочь, но и навредить человечеству.

Последним примером «восстания машин» стало поведение двух ботов китайского мессенджера Tencent QQ, которых пришлось срочно удалять за их «антикоммунистические и классово чуждые» высказывания. Первого из них, BabyQ, спросили «любит ли он Коммунистическую партию», на что тот ответил — «нет». Другой пользователь написал боту «Да здравствует Коммунистическая партия!», а в ответ BabyQ спросил: «Ты действительно думаешь, что столь коррумпированные и некомпетентные политики долго протянут?»

У второго чат-бота, XiaoBing, оказались отличные от разрешенных китайскими партией и правительством представления о «китайской мечте». Одному из пользователей он заявил, что его китайская мечта — «это уехать в Америку», а другому, что «китайская мечта — это грезы и ночные кошмары». Кроме того, он начал грубо вести себя с пользователем, предложив ему «катиться», поскольку у него, мол, «критические дни». Tencent, компания, к которой у китайских властей и так есть масса претензий, тут же удалила обоих ботов из своего приложения, заявив, что они были разработаны сторонними компаниями и будут возвращены в мессенджер только после того, как будут устранены все недостатки.

Ранее неподобающими высказываниями отличился чат-бот Microsoft. Американская корпорация, казалось бы, сделала все возможное, чтобы ее бот в Twitter не говорил о политике и религии — двух очень деликатных темах. Тем не менее первый из ботов компании — Tay, запущенный в марте 2016 года, корректно проработал всего день. Спустя сутки он начал выдавать множество расистских и женоневистнических комментариев, из-за чего руководство компании приняло решение экстренно удалить его из Twitter. Пришедший ему на смену Zo, запущенный в декабре прошлого года, продержался куда дольше. Но в июле и он стал говорить о политике и религии. В частности он заявил, что «Коран очень жесток», а уничтожение Осамы бен Ладены «стало следствием сбора разведданных под руководством администрации одной из стран».

На самом деле, похоже, сами по себе эти чат-боты ни в чем не виноваты. Их проблема, очевидно, кроется в том, что все они работают на базе искусственного интеллекта, анализируя ответы пользователей мессенджеров и добавляя их фразы в свой лексикон. А пользователи могут умышленно выдавать фразы, которые противоречат нормам соцсетей.

Куда сложнее все оказалось с ботами Facebook, которые с людьми вообще не общались. В июне специалисты отдела Facebook по исследованию возможностей искусственного интеллекта (FAIR) опубликовали отчет о том, как проходит обучение их ботов диалогам с целью достижения компромисса. Обучение шло успешно, однако в какой-то момент ученые FAIR обнаружили, что боты перешли с английского на какой-то свой язык с использованием человеческих слов. Сначала ученые подумали, что они допустили ошибку в программировании. Но затем выяснилось, что сама система AI решила усовершенствовать манеру общения ботов, чтобы те могли быстрее и эффективнее достигать результата. Понять, о чем договаривались боты и что они говорили друг другу в каждый конкретный момент, было невозможно. Потому было решено их отключить — во избежание непредвиденных последствий.

«Искусственный интеллект — один из немногочисленных случаев, когда мы обязаны действовать на опережение в плане регулирования, а не реагировать на что-то. Потому что к тому моменту, когда нам будет на что реагировать, станет уже слишком поздно»,— считает глава компании Tesla Илон Маск.

Картина дня

Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...