Контент Facebook будет модерировать ИИ

В социальной сети Facebook представили новую модель на основе ИИ для модерации контента.

Если этот метод сработает, то наиболее травмирующие пользователей посты будут удалять в первую очередь.

Теперь публикации, которые нарушают правила социальной сети (спам, разжигание ненависти, пропаганда насилия и т.д.), будут помечаться пользователями либо алгоритмами на основе машинного обучения. Остальные публикации попадут в очередь на то, чтобы их просмотрели модераторы Facebook.

Сейчас в Facebook работают около 15 тыс. модераторов по всему миру, однако пользователи и СМИ критиковали их за то, что администрация сайта недостаточно их поддерживает и не нанимает большее количество персонала. Их работа заключается в том, чтобы сортировать посты с жалобами и принимать решения о том, нарушают ли они правила компании или нет.

Ранее модераторы рассматривали посты по мере публикации — сейчас Facebook изменил свой подход для того, чтобы в первую очередь рассматривать публикации, которые набирают больший охват. Модель искусственного интеллекта (ИИ) будет использовать набор критериев — вирусность, сюжет публикации и вероятность того, что она нарушает правила.

Facebook отмечает, что новый подход поможет разобраться с наиболее распространенными публикациями, которые могут нарушать правила сообщества. В социальной сети также отмечают, что они помечают сообщения с «потенциальным вредом»  так, чтобы их можно было рассмотреть в первую очередь. Это поможет вовремя удалять контент, связанный с терроризмом, эксплуатацией детей или членовредительством. Спам будут рассматривать только потом — они отмечают, что такие сообщения раздражают, но не могут травмировать пользователей.

Facebook также поделился подробностями того, как работают фильтры машинного обучения — модель целостно оценивает контент пользователей в социальной сети. Это означает, что алгоритмы совместно оценивают различные элементы в любом посте, пытаясь выяснить, что означает картинка и ее подпись в целом.

Поделиться в: