Une nouvelle étude met en lumière les biais de genre et d’ethnicité dans la reconnaissance faciale
Avec la puissance actuelle de nos algorithmes dopés à l'intelligence artificielle, il devient possible de réaliser des tâches presque impensables il y a encore quelques années. La reconnaissance faciale est un bon exemple... mais elle n'est pas sans défaut non plus.
On pourrait penser, très facilement, que puisque les ordinateurs n’ont pas de sentiments, d’émotions, les machines seraient exemptes de tous les biais que nous, humains, avons inconsciemment. Malheureusement, l’ordinateur, et l’algorithme qu’il exécute, ne sont que des outils, des outils que l’Homme programme pour lui expliquer quoi faire. Et il peut arriver que ces biais humains se retrouvent implémentés dedans. Parfois, les conséquences sont minimes, parfois, cela peut être très dangereux. Et là encore, la reconnaissance faciale est un bon exemple.
Les systèmes de reconnaissance faciale accusés de certains biais très humains
Le gouvernement américain a récemment mené une étude sur le sujet. Le résultat est que, en ce qui concerne les systèmes de reconnaissance faciale tout du moins, il existe bel et bien des biais de genre et d’ethnicité. Les algorithmes identifient par exemple avec davantage de difficultés les gens de couleur que les gens de type caucasien. Selon le rapport communiqué officiellement : “Concernant l’identification un-un, l’équipe a constaté des taux de faux positifs plus élevés pour les visages asiatiques et afro-américains que pour les visages caucasiens. Les différences oscillent entre un facteur 10 et 100, selon les algorithmes individuels étudiés.”
notamment les biais de genre et d’ethnicité
L’étude a par exemple découvet que la technologie de reconnaissance faciale de Microsoft conduisait à 10 fois plus de faux positifs chez les femmes de couleur que chez les hommes de couleur. Le géant de Redmond a d’ores-et-déjà fait part de son intention de passer en revue ces résultats et de faire son maximum pour corriger la situation s’ils sont avérés. Ce n’est pas la première fois que la technologie est accusée de ce genre de biais. Il n’y a pas si longtemps, c’est l’algorithme derrière l’Apple Card qui était accusé d’offrir aux hommes des limites de crédit plus élevées qu’aux femmes. Les conséquences de tels comportements, quels que soient les domaines finalement, pourraient être assez graves.