Прошлой осенью пользователи Twitter обратили внимание на работу алгоритма, отвечающего за показ миниатюры фотографии в ленте — как правило, если на фотографии присутствовали лица разного цвета кожи, то лицо белого попадало в показываемую часть намного чаще лица черного цвета. Twitter пообещал разобраться и одним из результатов стал вывод фотографий в полном размере и пропорциях. Но кроме этого, аналитики компании исследовали работу алгоритма «заметности», задачей которого было выделение на фотографиях участков, на которые чаще обращают внимание люди, и вот результаты исследования.

Оказалось, что действительно, алгоритм был подвержен искажениям. Например, если на фотографии присутствовали мужчина и женщина, у женщины было больше шансов попасть в замеченную часть фотографии — примерно на 8% по сравнению с демографическим равенством. Перекос в сторону белых в ущерб черным меньше — всего 4%. Причем белых женщин алгоритм выбирал на 7% чаще, а белых мужчин — всего на 2%.

Исследователи даже проверили замечание, что алгоритм подражает «мужскому взору» — то есть, что на фотографиях женщин чаще выбирается не лицо, а другие части тема. Но это подозрение оказалось необоснованным — лишь в 3% случаев вместа лица женщины алгоритм фокусировался на других частях фотографии и чаще всего это были какие-то элементы одежды — например, номер на футболке.

В принципе, неплохие объяснения, только непонятно, как оправдываться, если на футболке нет номера или вообще нет футболки.
https://blog.twitter.com/engineering/en_us/topics/insights/2021/sharing-learnings-about-our-image-cropping-algorithm.html
TikTok and Fitness: The Rise of Wellness Trends on the Platform