FTC США предупреждает компании о «продаже или использовании ИИ алгоритмов, склонных к предвзятости на расовой или гендерной почве». По сути речь идет о том, что алгоритмы, которые предвзяты к расе и тп могут напрямую нарушать федеральные законы, в первую очередь FCRA и ECOA.
Первый закон - о Справедливой кредитной истории, второй - о предоставлении равных прав на кредит.

Не совсем понятно, как строить такие ИИ-модели, которые не учитывают пол-возраст-расу людей в обучающей выборке. Ведь чаще всего такие системы обучаются на решениях живых людей, которые по определению предвзяты https://www.protocol.com/ftc-bias-ai