Facebook предлагает пользователям непристойности и фейковые статьи. Ложную информацию стали публиковать в блоке популярных новостей. Странности в подборке ленты юзеры заметили после того, как Facebook заменил живых редакторов на автоматизированную систему. Следуя алгоритму, робот отбирает самые популярные публикации внутри соцсети. При этом машина игнорирует достоверность источников, не может оценить адекватность текста и не распознает табуированные темы. Подробнее — в материале Светланы Беловой.
Прошло всего несколько дней после масштабного сокращения редакторской службы, и Facebook вынужден признать: эксперимент с роботом стал катастрофой. В англоязычном сегменте соцсети в разделе Trending Topics появилось сообщение о том, что Fox News разоблачил «предательницу» Мегин Келли и уволил за то, что сотрудница поддерживала Хиллари Клинтон. То, что новость фейковая, становится понятным буквально за два клика. Мегин Келли по-прежнему работает на Fox News, публично свое отношение к Клинтон не высказывала, а первоисточник сообщения ведет на сомнительный блог. Тем не менее, за несколько часов пост набрал почти 2 тыс. лайков и так попал в топ популярных новостей. В простую ошибку алгоритма руководитель «Лаборатории комьюнити» Владислав Титов не верит. Когда речь идет о политических материалах, соцсети часто оказываются ангажированными.
«Социальная сеть имеет возможность каким-то образом подруливать и выводить те или иные новости в топ, тем самым создавая информационное поле. Их уже в этом уличали. Мы же не можем сказать, что это ошибки, потому что были не раз новости, когда в США было вскрыто, что выводились в топ новости, связанные с Демократической партией, и полностью удалялись новости, связанные с Республиканской партией. Таким образом можно влиять на людей», — уверен Титов.
Еще большее удивление у пользователей вызвало непристойное видео, где некий мужчина демонстрирует свою горячую любовь к бутербродам из «Макдональдса». Скабрезный контент попал в топ новостей с хэштегом #chickenburger и, очевидно, многим понравился. Главный критерий для робота-новостника — кликабельность ссылки и количество лайков. Если неприличное попало в новостную ленту, это недосмотр авторов алгоритма, пояснила директор по лингвистическим разработкам компании «Наносемантика» Анна Власова.
«Тут надо понимать, что робот не хочет никого обидеть. Например, создаются так называемые матерные фильтры — это специальные словари, которые содержат ненормативную лексику для русского языка, для английского, для какого хотите, и они не будут пропускать в ответ системы слова из этого списка», — сообщила «Коммерсантъ FM» Власова.
В рунете роботам уже давно доверяют написание новостей. Так, например, в «Яндексе» сообщения о пробках или погоде, обзоры кинорынка или анализ поисковой активности пользователей составляет машина. Провалы Facebook мог допустить только робот-пылесос, который работает с непроверенным контентом, отметила руководитель проекта «Яндекс для медиа» Мария Петрова.
«Робот, который пишет новости, — это, по сути, программа, которая анализирует какие-то массивы данных. Обмануть эту программу можно единственным способом, предложив ей на входе странные данные. То есть в случае с новостями, которые пишет "Яндекс", мы используем только наши оригинальные данные и контент, в котором мы уверены, — те же данные о пробках или данные о популярности кинофильмов. Те данные, по которым робот Facebook строил ранкинг, были Facebook неподвластны, он их не контролирует», — считает Петрова.
Некоторые эксперты склонны считать, что ошибки робота Facebook прекратятся сразу после президентских выборов в США. Пока жертвой несовершенства алгоритма, как правило, становится Дональд Трамп. В разгар предвыборной кампании эксперты советуют интернет-сервисам вернуться к ручному отбору новостей. Роботам будет сложно фильтровать сообщения политических троллей. Так, например, в США появились десятки сайтов, которые ежедневно генерируют фейковые новости в поддержку того или иного кандидата. Заработки авторов доходят до $30 тыс. в месяц.