Logo

Le blog de Forecasting AI

Blog

>

News

>

Un algorithme de Twitter biaisé

Un algorithme de Twitter biaisé

By G.H.

|

May 19, 2021

|

News

|

L'algorithme de recadrage des images de Twitter Inc a un biais problématique qui exclut les personnes à la peau foncée et les hommes, a déclaré la société dans une nouvelle étude mercredi, ajoutant que "la façon de recadrer une image est une décision mieux prise par les humains".


L'étude, menée par trois chercheurs en apprentissage automatique, fait suite aux critiques formulées l'année dernière par les utilisateurs, qui reprochaient aux prévisualisations d'images dans les messages d'exclure les visages des personnes à la peau foncée, rapporte la firme dans un article sur son blog.

Les femmes et les visages blancs favorisés


Elle a constaté que la différence avec la parité démographique en faveur des femmes était de 8% et en faveur des visages blancs de 4%.

L'article cite plusieurs raisons possibles, notamment des problèmes de fond d'image et de couleur des yeux, mais précise qu'aucune d'entre elles n'est une excuse.

"Le recadrage basé sur l'apprentissage automatique est fondamentalement défectueux car il prive l'utilisateur de son autonomie et limite l'expression de sa propre identité et de ses valeurs, imposant au contraire une vision normative de la partie d'une image considérée comme la plus intéressante", écrivent les chercheurs.


Pour remédier à ce problème, Twitter a récemment commencé à afficher entièrement des photos avec un rapport d'aspect standard - sans recadrage - dans ses applications mobiles et tente d'étendre cette pratique.

Recadrer l'algorithme...


Les chercheurs ont également cherché à savoir si le recadrage favorisait les corps féminins par rapport aux têtes, reflétant ainsi ce que l'on appelle le "regard masculin", mais ils ont constaté que ce n'était pas le cas.

Les résultats sont un autre exemple de l'impact inégal des systèmes d'intelligence artificielle, y compris les biais démographiques que l'on trouve dans la reconnaissance des visages et l'analyse des textes, indique le document.

Des travaux menés par des chercheurs de Microsoft Corp et du Massachusetts Institute of Technology en 2018 et une étude plus récente du gouvernement américain ont révélé que les systèmes d'analyse faciale identifient mal les personnes de couleur plus souvent que les personnes blanches.

En 2018, Amazon Inc a rejeté un outil de recrutement d'IA qui montrait un biais contre les femmes.