Журналистское расследование Channel 4 показало, что модераторы Facebook, вопреки задекларированным правилам соцсети, оставляют на сайте материалы, изображающие насилие, а также расистские высказывания и ненавистнические публикации.

Подрядчики Facebook, которые занимаются фильтрацией контента, специально тренируют модераторов таким образом.

Расследование Channel 4

Facebook борется с запрещенным и токсичным контентом совсем не так рьяно, как говорит. К такому выводу пришел сотрудник британского телеканала Channel 4, который поработал под прикрытием в качестве модератора соцсети. Он устроился в дублинскую компанию CPL Resources, которая осуществляет модерацию контента в Facebook по контракту с 2010 г. Результаты своего расследования журналист представил в телепередаче «Внутри Facebook: секреты социальной сети».

В CPL Resources репортер прошел ряд тренингов, в ходе которых модераторов обучали обращению с контентом. Им пояснили, что у них есть три варианта реакции на контент: игнорировать, удалить или пометить как тревожный. В третьем случае материалы остаются на Facebook, но видеть их могут не все.

Журналист стал свидетелем случаев, когда модераторы позволяли материалам, изображающим жестокое обращение с детьми, расизм или насилие оставаться на Facebook. Кроме того, то, как обучались модераторы, очень сильно расходилось с правилами, которое декларирует соцсеть.

В ответ на показ телепередачи Facebook публично признал некоторые ошибки, допущенные при модерации контента, однако опротестовал утверждения, что эти ошибки были допущены целенаправленно. Компания поблагодарила журналистов за привлечение внимания к проблеме.

Насилие на Facebook

Во время тренингов журналисту показали образец контента, который следует пометить, как тревожный: видео, где взрослый мужчина избивает маленького мальчика. В декабре 2012 г. Никки Астин(Nicci Astin), которая проводила онлайн-кампанию против жестокого обращения с детьми, пожаловалась на это видео в Facebook, но ей сказали, что оно не нарушает правил соцсети. В первые два дня существования ролика на сайте пользователи поделились им 44 тыс. раз, и он по-прежнему доступен на Facebook. Вице-президент Facebook по публичной политике Ричард Аллан(Richard Allan) подтвердил представителям Channel 4, что такое видео должно было быть удалено.

В своих правилах Facebook пишет, что не позволяет размещать публикации на почве ненависти, поскольку они создают атмосферу запугивания и отверженности, а в некоторых случаях способствуют распространению насилия в реальном мире. Но во время тренинга модератору под прикрытием показали мем, на котором топят маленькую девочку, удерживая ее голову под водой. Мем был подписан «Когда первая любовь твоей дочери — маленький негритянский мальчик».

Репортеру сообщили, что подобные материалы следует игнорировать, то есть вообще никак не ограничивать их распространение, поскольку этот мем «подразумевает многое», но чтобы он стал действительно противоправным, требуется длинная цепочка умозаключений. Facebook подтвердил телеканалу, что мем нарушает правила соцсети, и пообещал расследовать инцидент.

Прочий шокирующий контент

Журналист Channel 4 также обнаружил, что на Facebook допускаются ненавистнические высказывания — например, комментарии в адрес иммигрантов-мусульман типа «у***вайте обратно свои собственные страны». Комментарию было позволено остаться на сайте. Как пояснил Аллан, если бы он был направлен против мусульман вообще, а не только против иммигрантов, его бы, скорее всего, удалили. Однако под давлением собеседников из Channel 4 топ-менеджер признал, что комментарий относится к ненавистническим публикациям.

Кроме того, модераторов учат не обращать внимания, если кто-то из пользователей выглядите явно моложе 13 лет, что является минимальным необходимым возрастом для регистрации на Facebook в соответствии с американским законодательством о защите детей в интернете, принятым в 1998 г.

Также репортер обнаружил, что модераторы подходят с разными мерками к противоправному контенту на страницах праворадикальных групп и на всех остальных страницах, в том числе правительственных и новостных. Ненавистнические публикации и изображение насилия в группах крайних правых не удаляются, даже если на них жалуются пользователи соцсети.

Почему опасный контент остается в Facebook

Один из сотрудников CPL Resources пояснил журналисту под прикрытием, почему противоправный контент не удаляются из соцсети. «Если ты начнешь слишком сильно цензурить, люди потеряют интерес к платформе. Это все для того, чтобы получить деньги под конец дня», — сказал он.

Роджер МакНаме(Roger McNamee), один из первых инвесторов Facebook, который стал критиком компании после скандала с Cambridge Analytica, подтвердил телеканалу, что соцсеть извлекает выгоду из токсичного контента: «То, что привлекает самых активных на платформе людей — это действительно экстремальный, действительно опасный контент. Facebook понимает, что желательно, чтобы люди проводили больше времени на сайте, если твой бизнес базируется на рекламе».

В свою очередь, Аллан категорически отрицает, что шокирующий контент помогает соцсети делать деньги. «Это просто непонимание, как работает система», — заявил он телеканалу.

Что касается необычайно толерантного отношения к публикациям праворадикалов, то здесь причина может быть иной. Профильные СМИ полагают, что это является следствием скандала, разгоревшегося в 2016 г., когда стало известно, что соцсеть на регулярной основе не допускает новости консервативного содержания в рубрику самых трендовых новостей. Сама рубрика была ликвидирована уже в июне 2018 г. Другие СМИ полагают, что дело здесь все-таки в деньгах — праворадикальные группы, о которых идет речь, имеют много подписчиков.

Валерия Шмырова

CNews