МОСКВА, 19 июн - ПРАЙМ. Имена некоторых модераторов Facebook <FB> Inc. случайно стали доступны людям, подозреваемым в связях с террористическими сообществами, и другим группам, контент которых вызвал сомнения. Данная ошибка, как заявила компания в пятницу, была устранена, сообщает Dow Jones.
Утечка информации, по словам представителя Facebook, затронула примерно 1000 модераторов сети. В результате утечки их имена стали доступны в журнале операций, а кликнув по имени, пользователь попадал на публичную версию страницы модератора в Facebook. Однако в большинстве случаев, как пояснил представитель Facebook, имена модераторов не были доступны для администраторов этих групп.
Отдел внутренних расследований Facebook, по словам представителя, полагает, что подозреваемые в терроризме лица смогли увидеть страницы менее шести модераторов. По данным отдела, ни в одном из случаев речь не идет о террористической группе ИГИЛ (запрещена в РФ).
Аналогичная проблема возникала осенью прошлого года и была устранена в ноябре. Новости об утечке и последующем ее устранении ранее опубликовала Guardian.
В ответ Facebook внесла ряд изменений для предотвращения очередной утечки информации о своих сотрудниках. Кроме того, сейчас она тестирует новые учетные записи, которые не требуют от модераторов внесения персональных данных об их страницах в Facebook.
"Как только мы узнали о данной проблеме, мы устранили ее и начали тщательное расследование, чтобы извлечь как можно больше информации из случившегося", - заявил представитель Facebook.
Неловкий инцидент произошел в то время, когда на Facebook оказывается давление, чтобы она приняла дополнительные меры для блокировки неприемлемого контента. В последние несколько месяцев компания в большей степени полагается на искусственный интеллект, чтобы заблокировать на своей платформе сообщения предполагаемых террористов и учетные записи, не задействуя при этом модераторов.
Одно из средств позволяет компании выявлять видеоролики с террористическим содержанием, такие как записи казни через отсечение головы, и запрещать их репосты. Другой набор алгоритмов позволяет обнаруживать пропагандистов и блокировать их новые страницы после того, как их старые учетные записи уже были удалены в сети.
Впрочем, предыдущие усилия Facebook по замене модераторов на компьютерные алгоритмы не увенчались успехом. Так, в августе компания представила алгоритм для отслеживания "трендов", но в течение нескольких дней вместо серьезных новостей он собрал вымышленные истории и сплетни об известных людях.
В настоящее время большую часть работы по устранению в сети контента, который, предположительно, призывает к насилию, например ксенофобские высказывания или призывы к эксплуатации детей, осуществляют модераторы. В мае генеральный директор Facebook Марк Цукерберг сказал, что компания наймет еще 3000 человек для анализа контента с целью блокирования видео с элементами насилия или ролики, носящие деликатный характер.
Как правило, такие действия не отражаются в хронике или журналах операций Facebook. Но из-за ошибки, появившейся прошлой осенью, когда модераторы лишились статуса администраторов группы, информация о таких действиях стала отражаться в журнале группы.