Technologie-NTIC

La reconnaissance faciale reconnait à tort les personnes asiatiques et noires 100 fois plus souvent que les personnes blanches

Selon une étude officielle américaine, cette technologie attribuerait aussi un mauvais sexe à des femmes noires dans plus d’un tiers des cas.

Si vous n’êtes pas blanc de couleur de peau, vous avez cent fois plus de chances d’être mal identifié par la reconnaissance faciale. C’est ce que conclut un rapport du gouvernement américain publié jeudi, pointant un manque de fiabilité de cette technologie d’intelligence artificielle et renforçant les doutes autour de son déploiement.

La reconnaissance faciale reconnaît à tort les personnes asiatiques ou noires 100 fois plus souvent que les personnes blanches, selon cette étude qui a analysé des dizaines d’algorithmes. Les chercheurs du National Institute of Standards and Technology (NIST), un centre affilié au gouvernement, ont aussi repéré deux algorithmes qui attribuaient le mauvais sexe à des femmes noires dans 35 % des cas.

Cette technologie est déjà largement utilisée par les autorités, les forces de l’ordre, les aéroports, les banques, les commerces et les écoles. Elle sert aussi à déverrouiller certains smartphones. En France, la ville de Nice avait voulu l’expérimenter dans deux lycées, mais la Cnil s’y est opposée fin octobre dernier.

De nombreux défenseurs des droits humains et des chercheurs tentent d’ailleurs de freiner ce déploiement. Ils estiment que les algorithmes commettent trop d’erreurs, que des personnes innocentes pourraient se retrouver en prison ou encore que des bases de données risquent d’être piratées et utilisées par des criminels.

« Une technologie de surveillance défectueuse et biaisée »
Les algorithmes développés aux Etats-Unis avaient des taux d’erreur plus élevés pour les Asiatiques, les Afro-Américains et les Amérindiens, d’après l’étude, tandis que d’autres conçus dans des pays asiatiques parvenaient à identifier aussi bien les visages asiatiques que blancs. « C’est encourageant car cela montre que l’utilisation d’une base de données plus diverse permet d’arriver à de meilleurs résultats », a déclaré Patrick Grother, le directeur de recherche.

Mais pour l’ONG American Civil Liberties Union (ACLU), cette étude prouve avant tout que la technologie n’est pas au point et ne devrait pas être installée. « Même les scientifiques du gouvernement confirment que cette technologie de surveillance est défectueuse et biaisée », a réagi Jay Stanley, un analyste de ACLU.

« Une mauvaise identification peut faire rater un vol, entraîner des interrogations sans fin, un placement sur des listes de personnes à surveiller, des tensions avec des agents de police, des arrestations sans fondement ou pire », s’est-il inquiété, craignant notamment « une surveillance indécelable et omniprésente à une échelle sans commune mesure ».

N.Be. avec AFP

Digital Manager - Chef de projet chez Alixcom Dakar | E-mail: saliou@dakar-echo.com | +221 77 962 92 15

Articles Similaires

1 sur 54

Laisser une réponse

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *