Nouvelles

Le logiciel de reconnaissance faciale a un biais, selon un nouveau rapport gouvernemental

Le logiciel de reconnaissance faciale a un biais, selon un nouveau rapport gouvernemental

Selon une nouvelle étude fédérale, les systèmes de reconnaissance faciale présentaient un biais lorsqu'il s'agissait d'identifier et de faire correspondre les personnes de couleur.

L'étude historique jette une lumière négative sur les logiciels qui sont de plus en plus utilisés par les forces de l'ordre à travers le pays.

CONNEXES: UN LOGICIEL DE RECONNAISSANCE FACIALE AI A ÉTÉ UTILISÉ POUR ATTEINDRE UN SUSPECT DE MEURTRE EN CHINE

Afro-américains, asiatiques 100 fois plus susceptibles d'être mal identifiés

L'étude de l'Institut national des normes et de la technologie a révélé que les Afro-américains et asiatiques étaient jusqu'à 100 fois plus susceptibles d'être mal identifiés par le biais d'un logiciel de reconnaissance faciale que les Caucasiens, selon l'algorithme individuel. Parmi les algorithmes développés aux États-Unis, la démographie amérindienne présentait les taux les plus élevés de faux positifs.

L'étude a également révélé que les femmes afro-américaines avaient les taux les plus élevés de faux positifs pour l'appariement individuel, couramment utilisé par les forces de l'ordre pour rechercher des millions de personnes dans une base de données afin de trouver un suspect. Le test du NIST n'a utilisé qu'une seule base de données du FBI contenant 1,6 million de clichés nationaux.

"Les différences de faux positifs dans l'appariement un-à-plusieurs sont particulièrement importantes car les conséquences pourraient inclure de fausses accusations", a déclaré le NIST dans un communiqué de presse mettant en évidence les résultats de l'étude. Le NIST a noté que les résultats variaient d'un algorithme à l'autre, affirmant que «les plus équitables se classent également parmi les plus précis».

Le NIST a examiné 189 algorithmes

Le NIST a mené l'étude dans le cadre de son programme de test des fournisseurs de reconnaissance faciale, dans lequel il évalue les algorithmes de reconnaissance faciale des éditeurs de logiciels et des développeurs universitaires sur leur capacité à effectuer des tâches. Dans cette étude, il a utilisé quatre collections de photographies représentant 18,27 millions d'images de 8,49 millions d'individus. Toutes les images provenaient du Département d'État, du Département de la sécurité intérieure et du FBI.

Le NIST a testé 189 algorithmes logiciels soumis par 99 développeurs, dont la majorité étaient des entreprises. Le NIST a examiné dans quelle mesure les algorithmes correspondaient aux photos de la même personne, ce qui est couramment utilisé pour déverrouiller un smartphone ou vérifier un passeport et est connu sous le nom de correspondance «un à un». L'agence gouvernementale a également testé la capacité de l'algorithme à faire correspondre une personne sur une photo à des images d'une base de données. Connu sous le nom d'appariement «un-à-plusieurs», il peut être utilisé pour identifier une personne d'intérêt.

"Dans une recherche individuelle, un faux négatif peut être simplement un inconvénient - vous ne pouvez pas accéder à votre téléphone, mais le problème peut généralement être résolu par une deuxième tentative", Patrick Grother, informaticien du NIST et le auteur principal du rapport. "Mais un faux positif dans une recherche un-à-plusieurs met une correspondance incorrecte sur une liste de candidats qui justifie un examen plus approfondi."


Voir la vidéo: #YTPC14 - Du contenu malsain pour enfant sur YouTube (Octobre 2021).