Новости общества

Опубликованы внутренние правила Facebook по модерированию публикаций

Guardian впервые раскрывает информацию о том, что в компании Facebook существуют специальные своды правил и руководства, определяющие, что именно 2 млрд. пользователей сайта могут публиковать.

Это должно стать поводом к возникновению большой дискуссии о роли гиганта индустрии социальных медиа и этической составляющей его работы.

Guardian получила доступ к более чем сотне учебных пособий, электронных таблиц и блок-схем, которые впервые раскрывают ранее неизвестный инсайт о системе, построенной Facebook для модерирования таких тем как насилие, ненависть, терроризм, порнография, расизм и саморазрушение.

Facebook позволяет пользователям вести живую трансляцию со сценами членовредительтсва, открытые после утечки “Внутренние руководства” показывают, как сайт пытается найти баланс в том, какую степень силы криков о помощи можно допустить, чтобы не спровоцировать появление подражателей.

Есть даже рекомендации, касающиеся информации о договорных матчах и каннибализму.

В Facebook Files даются общие представления о кодах и правилах, которые сформулировал сайт, испытывающий постоянное сильное политическое давление в Европе и США.

Они иллюстрируют трудности, с которыми сталкивается руководящий состав компании, пытаясь сформировать реакцию на новые вызовы, такие как “Порно-месть”, и проблемы для модераторов, которые заявляют, что они сильно перегружены работой, что означает, что у них зачастую есть “всего 10 секунд” на принятие решения.

“Facebook не может контролировать контент, – рассказывает источник, – Ресурс стал слишком большим, процессы слишком быстрые”.

Многие модераторы сообщают о своей озабоченности в связи с непоследовательностью и специфичным характером некоторых стратегий. Например, те, кто имеет отношение к теме секса, считают ситуацию в этой сфере самой сложной и запутанной.

В одном из документов говорится, что Facebook обрабатывает более 6,5 млн. отчетов в неделю, касающихся потенциально поддельных учетных записей, так называемых FNRP (фейк, а не реальный человек).

Используя тысячи слайдов и изображений, Facebook составляет рекомендации, которые вызывают беспокойство у критиков – те заявляют, что сервис теперь является издателем, и должен делать больше для того, чтобы вредоносный контент на тему ненависти и жестокости удалялся вовремя.

Между тем, такие призывы вызывают тревогу у сторонников свободы слова, которых беспокоит то, что Facebook фактически играет роль крупнейшего цензора в мире. Обе стороны, вероятно, потребуют усиления прозрачности работы сайта.

Guardian удалось ознакомиться с документами, на которые ориентируются в своей работе модераторы Facebook в течение последнего года. В них говорится:

• Высказывания типа “кто-то стреляет в Трампа” должны быть удалены, поскольку он, будучи главой государства, находится в категории персон под особой защитой. В то же время допускаются высказывания вроде : “Чтобы сломать шею суке, обязательно сосредоточьте все давление на середине ее горла” или “отвали и сдохни”, поскольку они не считаются прямой угрозой.

• Видео с насильственной смертью, отмеченные как “тревожащие”, удалять нужно не всегда, поскольку они могут помочь вскрыть проблемы, например, наличие психического заболевания.

• Некоторые фотографии с изображением сцен физического насилия несексуального характера и издевательств над детьми не должны быть удалены или “подвергнуты обработке, если они не содержат элементов садизма и не носят характер насмешки”.

• Фотографии жестокого обращения с животными можно распространять, и только в крайних случаях изображения будут помечены как “тревожащие”.

• Весь “хенд мейд” – изображения изделий ручной работы, демонстрирующих наготу и сексуальную активность, разрешены, но работы, выполненные с использованием цифровых технологий, демонстрирующие сексуальную активность, публиковать запрещено.

• Видео абортов разрешены, если в них отсутствует изображение нагого тела.

• Facebook разрешает пользователям вживую транслировать попытки совершить членовредительство, по той причине, что не желает быть цензором или ограничивать страдающих людей.

• Любой человек, имеющий более чем 100 000 последователей на своей платформе в социальных медиа, автоматически относится к категории “общественным деятель”, что лишает его полной защиты со стороны ресурса, предоставляемой частным лицам.

Согласно внутренним документам Facebook модераторы могут пропускать комментарии такого рода: “маленькая девочка не может сопротивляться своему отцу, пока тот не разобьет ей лицо”, или “надеюсь, кто-нибудь тебя прикончит”. Такие угрозы, считается, носят общий характер или не являются правдоподобными.

“Мы должны отметить, что случаи использования языка насилия чаще всего нельзя считать выражением желаний и планов до тех пор, пока его специфика не даст нам достаточных оснований, чтобы признать, что это уже не просто выражение эмоций, но намерение совершить конкретные действия. С этой точки зрения такие фразы, как “я тебя убью” или “отвали и сдохни” не выражают прямых желаний и планов, но несут в себе агрессивное выражение неприязни и разочарования”.

И дальше: “Обычно люди выражают презрение или несогласие, угрожая или призывая к насилию в общем шуточным и несерьезным образом”.

Facebook признает, что “не весь контент агрессивного или тревожного характера выходит за рамки норм, принятых в нашем обществе”.

Моника Бикерт, глава Facebook по глобальному управлению политикой, заявила, что сегодня сервисом пользуются почти 2 миллиарда людей, и достичь консенсуса о том, какие должны быть установлены границы, очень сложно.

“Наши пользователи – это огромное разнообразное сообщество, у людей очень разные представления о том, чем стоит делиться, а чем нет. Независимо от того, где вы проведете линию, всегда найдутся “серые зоны”. Например, грань между сатирой, юмором и неприемлемым контентом иногда очень тонкая. Очень сложно определить, что к какой категории относится”, – сказала она.

“Мы чувствуем ответственность за то, чтобы обеспечивать сообществу наших пользователей безопасность. Несомненно, наша прямая обязанность – быть в курсе всех событий. Это обязательство берет на себя компания. Мы будем продолжать активно инвестировать в обеспечение стандартов безопасности на сайте, но мы также хотим дать возможность людям сообщать нам о любом нарушении наших стандартов”.

Бикерт добавила, что некоторые комментарии оскорбительного характера в определенном контексте можно отнести к недозволенным, тогда как в другом контексте их можно отнести к дозволенным.

Утечка норм политики Facebook относительно таких критических тем, как насильственная смерть, изображения сцен физического насилия несексуального характера над детьми и жестокое обращение с животными показывает, что компания из всех сил старается не подорваться на минном поле.

В опубликованных файлах говорится: “Видео насильственной смерти вызывает тревогу, но также может помочь осведомленности. В этой связи мы считаем, что защитить нужно несовершеннолетних, а взрослым нужно предоставить выбор. Мы относим видео насильственной смерти людей к категории “повод для беспокойства”.

Такие видеозаписи должны быть “недоступны для несовершеннолетних”, но их не нужно удалять автоматически, так как они могут “быть полезными для обнаружения персон, занимающихся членовредительством, страдающих психическими заболеваниями, для вскрытия военных преступлений и других важных проблем”.

В отношении насилия над детьми несексуального характера, Facebook говорит следующее: “Мы не допускаем присутствия на сайте фотографий жестокого обращения с детьми. Мы считаем возмутительными видео жестокого обращения с детьми. Мы удаляем примеры жестокого обращения с детьми, если они пропитаны садизмом и насмешками”.

На одном из слайдов объясняется, что Facebook не удаляет доказательства фактов несексуального насилия над детьми автоматически, чтобы материал получил публичность, и благодаря этому “ребенка можно было идентифицировать и спасти, но мы добавляем специальные эффекты для защиты зрителей”. Такой защитой может бать, например, предупреждение о том, что видео содержит сцены насилия.

Facebook подтвердил, что бывают “ситуации, когда мы не блокируем изображение сцен несексуального насилия над ребенком с целью ребенку помочь”.

Политика компании в отношении жестокого обращения с животными также объясняется на одном из слайдов: “мы допускаем публикацию фото-и видеоматериалов, которые показывают эпизоды издевательства над животными для того, чтобы пользователи могли быть осведомлены, но оставляем за собой право добавлять защитные эффекты на такой контент – они сообщают зрителям, что это материал “крайне тревожащий”.

“Как правило, сцены жестокого обращения с животными могут быть свободно опубликованы на сайте. Некоторые особенно жестокие эпизоды могут быть помечены как тревожащие”.

Фото нанесения животным увечий, в том числе показывающие сцены пыток, согласно политике Facebook, должны быть помечены как тревожащие, но не должны быть удалены. Модераторы также могут не удалять фотографии, где человек пинает или бьет животное.

Facebook заявил: “Мы даем возможность людям обмениваться изображениями жестокого обращения с животными, чтобы повысить уровень осведомленности и осудить злые действия, но удаляем контент, в котором приветствуется жестокость в отношении животных”.

Обнаруженные документы также показывают, что Facebook составил новые правила, касающиеся публикации изображения обнаженных частей человеческого тела после прошлогодних протестов, вызванных запретом компании публиковать культовую фотоработу о войне во Вьетнаме «Напалм во Вьетнаме», на основании того, что на фото изображена обнаженная девушка.

Теперь компания разрешает “исключения, заслуживающие освещения в новостях» согласно своим принципам демонстрации “ужасов войны”, но полностью запрещает изображения “детской наготы в контексте Холокоста”.

Представители Facebook рассказали журналистам Guardian, что они используют специальное программное обеспечение для перехвата некоторого графического контента до того, как он попадет на сайт, но отметили: “мы хотим дать возможность людям обсуждать глобальные и текущие события … так что то, в какой контекст помещены изображения сцен насилия, иногда очень важно”.

Некоторые критики в США и Европе требуют, чтобы работа компании регулировалась по той же процедуре, что и основные медиа-вещатели и издания.

Но Моника Бикерт заявила: Facebook – “компания нового типа. Она не является технологической компанией в традиционном понимании. Ее также нельзя назвать традиционной медиа – компанией. Мы создаем технологии, и чувствуем ответственность за то, как они используются. Мы не являемся авторами новостей, которые люди читают на платформе”.

В докладе британских парламентариев, опубликованном 1 мая, говорится, что “крупнейшие и самые богатые социальные медиа-компании позорно далеки от принятия достаточных мер для борьбы с незаконным или опасным контентом, от того, чтобы поддерживать надлежащие стандарты в сообществе, и от того, чтобы обеспечивать безопасность своим пользователям”.

Сара Робертс, эксперт по модерированию контента, сказала: “Одно дело, когда вы – маленькое онлайн-сообщество группы людей, которые разделяют одинаковые принципы и ценности, но когда ваши пользователи – немалый процент населения мира, и вы говорите: “обменивайтесь, чем хотите”, вы гарантировано получите полный бардак.

“А затем, когда вы монетизируете эту деятельность, вы окажетесь в катастрофичной ситуации”.

Facebook непрерывно со всем усердием оценивает новости на предмет жестокости и ценности в аспекте “осведомления”. Недавно компания подверглась жесткой критике за то, что не смогла удалить видео гибели Роберта Годвина в США, и видео убийства отцом своего ребенка в Таиланде, но в то же время ресурс сыграл важную роль в распространении видео убийств, совершенных полицейскими, и информации о других злоупотреблениях со стороны представителей властей.

vlad