Модерация агрессии

Справится ли Facebook с насилием в прямом эфире

В Facebook придумали, как бороться с недопустимым контентом. Компания объявила о найме дополнительных сотрудников, которые займутся изучением жалоб на видео. Научится ли соцсеть отслеживать агрессивные ролики? Об этом — Альбина Хазеева.

Фото: Олег Харсеев, Коммерсантъ

В последнее время жестокие прямые эфиры, которые запускают пользователи, стали настоящей проблемой для Facebook. В онлайне произошло уже несколько серьезных преступлений. Наибольший резонанс имело недавнее убийство в Кливленде. 37-летний американец Стив Стивенс запустил трансляцию на своей странице в соцсети: мужчина остановил проезжавший мимо автомобиль и выстрелил в пассажира. Запись была доступна для просмотра еще несколько часов после завершения эфира.

На вторые сутки после инцидента в Facebook объявили о том, что начнут оперативнее реагировать на подобные записи. А сейчас — спустя две с половиной недели — компания отчиталась о наборе дополнительного персонала в команду.

Соцсеть очень быстро приняла меры и таким образом застраховала себя от возможных проблем в будущем, отметил гендиректор агентства PRT Глеб Сахрай.

«Это особенность digital-среды, которая очень быстро развивается, на различных платформах реализуются быстрые маркетинговые решения, поэтому компании тоже культивируют системы оперативной реакции. Руководство Facebook действительно в состоянии в течение нескольких дней согласовать нужные меры, выделить бюджет, принять решение и его анонсировать. В этом смысле компания, конечно, имеет серьезную фору перед традиционными компаниями, таким как Samsung», — пояснил он.

У Facebook уже есть сотрудники, которые занимаются изучением жалоб одних пользователей на контент других. Сейчас их 4,5 тыс. человек. В течение года заявки начнут рассматривать еще 3 тыс. человек по всему миру, заявили в соцсети. Таким образом, штат таких сотрудников увеличится почти на 70%.

Но речь идет о реагировании в ручном режиме, который не может быть достаточно эффективным, считает руководитель компании «Лаборатории Комьюнити» Владислав Титов.

«Это, видимо, временный выход, согласно тому принципу, что ничего не делать нельзя. Видимо, в Facebook соотнесли число поступающих жалоб и количество требуемых сотрудников. Однако не факт, что эти люди действительно смогут мгновенно распознать, противоправный это контент или нет. Но и автоматически блокировать любую запись по жалобе Facebook не может. Тогда возникнет огромное количество перегибов», — заметил он.

По мнению экспертов, параллельно с использованием живых модераторов Facebook разрабатывает автоматические фильтры. Программы уже научились распознавать лица и обнаженные тела на снимках. Возможно, в обозримом будущем машины все же смогут по ряду признаков определять и насилие в прямом эфире. А до тех пор соцсети придется постепенно расширять штат сотрудников: онлайн-трансляции очень популярны среди пользователей, и с каждым днем их число увеличивается.

Как сообщил Марк Цукеберг, ускоренное рассмотрение жалоб на прямые трансляции уже принесло результаты. На прошлой неделе в соцсеть поступило сообщение, что пользователь в эфире собирается совершить самоубийство. Facebook связался с полицией, и трагедию удалось предотвратить.

Картина дня

Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...