Причину, по которой Facebook не «заметил» видео стрельбы в мечетях Новой Зеландии прежде, чем оно было просмотрено 4000 раз, пояснил вице-президент Facebook Гай Розен в блоге компании. В заявлении говорится:

«В свете активного расследования полиция попросила нас не делиться некоторыми деталями. В настоящее время мы можем предоставить следующую информацию:

— Видео было просмотрено менее 200 раз во время прямого эфира.

— Ни один пользователь не сообщил о видео во время прямой трансляции.

— В том числе в прямом эфире, видео было просмотрено около 4000 раз, прежде чем было удалено из Facebook.

— Прежде, чем мы были предупреждены о видео, пользователь 8chan опубликовал ссылку на копию видео на файлообменном сайте.

— Первый пользовательский отчет по оригинальному видео пришел через 29 минут после запуска видео и через 12 минут после окончания прямой трансляции.

— В течение первых 24 часов мы удалили более 1,2 миллиона видео атаки при загрузке, которые поэтому не были замечены на наших сервисах. Примерно 300 000 дополнительных экземпляров были удалены после их публикации».

Указывается также, что многие люди спрашивали, почему искусственный интеллект не обнаружил видео с атаки автоматически. Розен сообщает, что хотя на протяжении многих лет и во многих областях ИИ добился значительного прогресса, позволяя активно обнаруживать подавляющее большинство подлежащего удалению контента, он, тем не менее, не работает идеально.

«Системы ИИ основаны на» обучающих данных», что означает, что вам нужно много тысяч примеров контента, чтобы обучить систему, которая может обнаруживать определенные типы текста, изображений или видео. Этот подход очень хорошо работает в таких областях как нагота, террористическая пропаганда, а также графическое насилие, где есть большое количество примеров, которые мы можем использовать для обучения наших систем. Однако именно это видео не вызвало срабатывания наших автоматических систем обнаружения. Для этого нам нужно будет предоставить нашим системам большие объемы данных такого рода содержания, что, к счастью, является редкостью.

Еще одна проблема заключается в том, чтобы автоматически отличать этот контент от визуально похожего, безобидного контента — например, если тысячи видео из видеоигр в прямом эфире помечены нашими системами, наши рецензенты могут пропустить важные видео в реальном мире, где мы могли бы предупредить первых ответчиков, чтобы получить помощь на месте.

ИИ является невероятно важной частью нашей борьбы с террористическим контентом на наших платформах, и хотя его эффективность продолжает улучшаться, она никогда не будет идеальной. Люди по-прежнему будут частью уравнения, будь то люди из нашей команды, которые просматривают контент, или люди, которые используют наши услуги и сообщают нам о контенте. Вот почему в прошлом году мы более чем удвоили число людей, работающих над безопасностью, до более чем 30 000 человек, включая около 15 000 рецензентов контента, и почему мы призываем людей сообщать о контенте, который они считают тревожным».

Как сообщало ИА REGNUM, просьбу руководителям Facebook, YouTube, Twitter и Microsof провести на следующей неделе брифинг о распространении насильственного контента направил руководителям этих компаний Бенни Томпсон, председатель комитета по нацбезопасности Палаты представителей. Томпсон просит глав компаний объяснить, каким образом видео теракта в Новой Зеландии распространилось на их платформах.