Wall Street Journal продолжает публикацию Facebook Files и новая публикация сообщает, что по внутренним метрикам автоматическая система модерации — AI, призванный бороться с hate speech и другими нарушениями политики модерации, — успешно определяла лишь 0,6% от общего количества нарушений, на который приходилось 3-5% показов. Наружу компания при этом заявляла, что проактивно удаляется до 97 процентов такого контента.

Facebook возражает, сообщая, что распространенность контента, нарушающего правила, упала на 50% за последние три квартала и сейчас составляет не более 0,05% от общего контента, показываемого пользователям.

Мне кажется, что тут налицо лукавство — ведь такой контент можно вычистить и армией модераторов и метрики будут достигнуты, но это ничего не говорит об эффективности технологии.
https://www.wsj.com/articles/facebook-ai-enforce-rules-engineers-doubtful-artificial-intelligence-11634338184?mod=djemalertNEWS
How to Make a Poster on Word