В социальной сети Facebook представили новую модель на основе ИИ для модерации контента.
Если этот метод сработает, то наиболее травмирующие пользователей посты будут удалять в первую очередь.
Теперь публикации, которые нарушают правила социальной сети (спам, разжигание ненависти, пропаганда насилия и т.д.), будут помечаться пользователями либо алгоритмами на основе машинного обучения. Остальные публикации попадут в очередь на то, чтобы их просмотрели модераторы Facebook.
Сейчас в Facebook работают около 15 тыс. модераторов по всему миру, однако пользователи и СМИ критиковали их за то, что администрация сайта недостаточно их поддерживает и не нанимает большее количество персонала. Их работа заключается в том, чтобы сортировать посты с жалобами и принимать решения о том, нарушают ли они правила компании или нет.
Ранее модераторы рассматривали посты по мере публикации — сейчас Facebook изменил свой подход для того, чтобы в первую очередь рассматривать публикации, которые набирают больший охват. Модель искусственного интеллекта (ИИ) будет использовать набор критериев — вирусность, сюжет публикации и вероятность того, что она нарушает правила.
Facebook отмечает, что новый подход поможет разобраться с наиболее распространенными публикациями, которые могут нарушать правила сообщества. В социальной сети также отмечают, что они помечают сообщения с «потенциальным вредом» так, чтобы их можно было рассмотреть в первую очередь. Это поможет вовремя удалять контент, связанный с терроризмом, эксплуатацией детей или членовредительством. Спам будут рассматривать только потом — они отмечают, что такие сообщения раздражают, но не могут травмировать пользователей.
Facebook также поделился подробностями того, как работают фильтры машинного обучения — модель целостно оценивает контент пользователей в социальной сети. Это означает, что алгоритмы совместно оценивают различные элементы в любом посте, пытаясь выяснить, что означает картинка и ее подпись в целом.