L’intelligence artificielle connait actuellement un développement fulgurant. Mais, alors que les algorithmes de reconnaissance faciale sont de plus en plus performants, une scientifique américaine dénonce le racisme et le sexisme sous-jacents de ces procédés.
Trop d’hommes blancs
C’est une étude publiée par le site du MIT (Massachusetts Institute of Technology) qui vient nourrir la polémique. Les algorithmes utilisés dans la reconnaissance faciale des individus seraient excessivement basés sur une banque de photos d’hommes blancs. Avec pour conséquence des différences d’efficacité selon le genre et la couleur de la personne sur laquelle cette reconnaissance faciale s’applique. De là à parler discrimination, il n’y avait qu’un pas.
Un pas qu’A franchi Joy Buolamwini, scientifique membre du MIT. C’est cette dernière qui a principalement conduit la recherche sur le sujet.
Des différences mineures
Dans cette optique, la scientifique a donc mené une batterie de tests auprès de trois solutions de reconnaissance faciale produites par Microsoft, IBM et Face++. Joy Buolamwini a alors comparé la reconnaissance faciale de 1 270 portraits de femmes et d’hommes issus de trois pays d’Afrique (Rwanda, Afrique du Sud, Sénégal) et de trois pays d’Europe (Suède, Finlande, Islande). L’idée étant de tester l’efficacité de l’intelligence artificielle dans la reconnaissance du genre et de la couleur de peau des individus.
Les résultats de l’expérience sont tout à l’honneur des trois sociétés d’informatique. Ainsi, elles affichent d’excellents taux en reconnaissance faciale puisque Microsoft s’en sort avec un taux de réussite de 93,7 % devant Face++ dont la solution est efficace à 90 %. Non loin derrière, IBM réalise 87,9 % de résultats justes.
Toutefois, cela ne satisfait pas Joy Buolamwini qui juge que les écarts sont trop importants entre les taux d’erreur concernant les hommes et les femmes. De même, les trois logiciels détectent plus facilement les visages des personnes à la peau blanche.
Un manque de « diversité »
La conclusion de Joy Buolamwini est que, bien que les algorithmes soient tout à fait fonctionnels, leur travail d’analyse est biaisé à cause d’une base de données trop peu représentative. La solution serait donc d’utilisER une banque de clichés avec davantage de diversité.
Mais, problème de taille, les photos de personnes de couleur et de femmes ne nécessitant pas de licence d’utilisation particulière sont plus rares que celles des hommes blancs.
IBM et Microsoft s’exécutent
Face au début de crispations sur le sujet, les services de communication d’IBM n’ont pas tardé à réagir. La firme précise être « profondément engagée à fournir des services impartiaux, explicables, conformes aux valeurs et transparents ». De plus, elle annonce un enrichissement plus représentatif de ses bases de données via la plateforme Flickr.
De son côté, Microsoft prend le problème « très au sérieux », tout en assurant avoir « déjà pris des mesures pour améliorer la précision de notre technologie de reconnaissance faciale ».
Le problème de fond de ces disparités de reconnaissance faciale, au-delà de leur caractère sociétal, est que ces outils de l’intelligence artificielle sont notamment utilisés par la police et les services de contrôle aéroportuaires. De quoi laisser augurer quelques confusions.
Crédit photo : Pixabay (CCO/geralt)
[cc] Breizh-info.com, 2018, dépêches libres de copie et de diffusion sous réserve de mention et de lien vers la source d’origine