FRFAM.COM >> Science >> Technologie

Reconnaissance faciale : biais raciaux et risques d'erreurs pour les minorités

IBM met un terme à la fourniture de technologies de reconnaissance faciale aux forces de police. Dans le contexte des manifestations Black Lives Matter, le géant de l'informatique alerte sur les risques d'abus de cette technologie. Une décision justifiée, selon de nombreuses études.

"IBM ne développera plus ni ne fournira de logiciels de reconnaissance faciale ou d'analyse d'attributs à la loi enforcement et aux agences. Il est temps d'ouvrir un dialogue national sur l'opportunité d'utiliser cette technologie par les forces de l'ordre." Cet appel du PDG d'IBM, Arvind Krishna, intervient au cœur des troubles aux États-Unis, exacerbés par les pratiques de contrôle policier. Les Afro-Américains sont disproportionnellement ciblés, selon des recherches documentées. Les critiques parlent de "profilage racial". La reconnaissance faciale semblait promettre une objectivité : laisser l'algorithme décider plutôt qu'un policier potentiellement biaisé. Mais la technologie n'est pas exempte de biais.

Jusqu'à 100 fois plus de faux positifs

La reconnaissance faciale repose sur l'intelligence artificielle (IA) pour identifier un visage dans une foule ou le comparer à une base de données. Bien que performante, elle n'est pas infaillible : faux positifs (identification erronée) et faux négatifs persistent. Des études, dont celle du National Institute of Standards and Technology (NIST) en décembre 2019, révèlent des écarts majeurs. Sur 189 algorithmes testés :

La technologie n'est pas toujours neutre

Les algorithmes produisent 10 à 100 fois plus de faux positifs sur les visages asiatiques et afro-américains lors de comparaisons 1:1. Pour les recherches en base de données, les femmes noires américaines sont les plus touchées. Le NIST conclut : "Ce groupe est le plus à risque d'être faussement accusé d'un crime." Cela amplifie les risques, car les forces de l'ordre traitent plus sévèrement les suspects. De plus, ces erreurs renforcent les préjugés humains. Le test a utilisé 1,6 million de mugshots du FBI. Les algorithmes américains sous-performent sur les non-Blancs comparés à ceux d'Asie, révélant un biais racial similaire à celui des humains. Un biais sexiste existe aussi : les femmes sont plus souvent mal identifiées.

Origine des biais : des données d'entraînement déséquilibrées

Pourquoi ces disparités ? Les IA sont entraînées sur des ensembles de données souvent peu diversifiés, sous-représentant les traits des personnes non blanches ou des femmes. Résultat : une moindre précision sur ces groupes.

La position d'IBM s'inscrit dans un débat plus large sur l'usage policier de la reconnaissance faciale aux États-Unis. Bernie Sanders plaidait pour un moratoire total. Des villes comme San Francisco et Oakland l'ont interdit. Faut-il une interdiction générale ? Certains prônent des tests gouvernementaux pour neutraliser les biais. En Chine, la technologie est massivement déployée. En Europe, les débats portent sur l'équilibre entre vie privée, non-discrimination et besoins sécuritaires. Un moratoire de cinq ans proposé par la Commission européenne a été abandonné au profit de recherches en IA responsable.

[]