C’est une question qui agite les colonnes de la revue américaine Nature en ce mois de juillet. L’intelligence artificielle (IA) pourrait s’avérer raciste et sexiste si les scientifiques n’interviennent pas ! Et certains scientifiques semblent prêts à tout pour éviter cela, quitte à renier les progrès scientifiques qui remettent en cause la fiction égalitariste ?
Un précédent symbolique : une intelligence artificielle devenue nazie
C’était en mars 2016, Microsoft avait lancé sur Twitter un compte tenu par une IA chargée de se faire passer pour un jeune, utilisant même les abréviations employées par les jeunes américains. L’idée était de « nourrir » l’intelligence artificielle grâce à des conversations avec des utilisateurs de Twitter.
Problème : en moins de 24 heures, à force d’échanger avec des internautes radicaux, l’IA déversait des messages d’apologie du régime hitlérien et agonisait les féministes d’injures fleuries.
S’il ne s’agissait que d’une IA extrêmement faible et d’un processus très particulier, cette mésaventure a symboliquement démontré que le développement de l’intelligence artificielle ne pouvait pas s’envisager en dehors des débats scientifiques et politiques du moment.
Pour répondre à la crise, Microsoft avait décidé de mettre la poussière sous le tapis en désactivant le compte Twitter de son robot.
La revue Nature appelle-t-elle à nier le réel au nom de l’égalité ?
La revue américaine Nature est-elle en train de sombrer dans l’obscurantisme ? C’est la question que pourrait se poser un observateur étonné à la lecture de l’article AI can be sexist and racist — it’s time to make it fair, publié le 18 juillet dernier. Dans cet article, James Zou et Londa Schiebinger – deux chercheurs à l’université de Stanford – considèrent que l’une des sources les plus importantes de biais racistes ou sexistes chez une IA est que les bases de données servant à les « nourrir » sont avant tout des bases de données européennes. Les autres populations (asiatiques, africaines, etc.) seraient donc mises de côté. Même chose pour la surreprésentation masculine dans les grandes bases de données utilisées pour nourrir les IA, comme Wikipédia.
C’était l’objet d’une étude du MIT que nous avions évoqué en février dernier. Les algorithmes utilisés dans la reconnaissance faciale des individus par IA se seraient excessivement basés sur une banque de photos d’hommes blancs. Avec pour conséquence des différences d’efficacité selon le genre et la couleur de la personne sur laquelle cette reconnaissance faciale s’applique. De là à parler discrimination, il n’y avait qu’un pas, allègrement franchi.
Pour lutter contre ces « discriminations », les chercheurs sont-ils prêts à programmer les IA afin qu’elles ne soit plus accusées de racisme ou de sexisme ?
Des manipulations pour éviter les vérités dérangeantes ?
The Robot Becky Menace:
Famous science journal « Nature » worries that Artificial Intelligence will generate racist and sexist findings unless the data are « nudged » in the political direction dictated by Artificial Stupidityhttps://t.co/3z4bdlS4dF pic.twitter.com/Q3u3K4ucQu
— Steve Sailer (@Steve_Sailer) 20 juillet 2018
Les deux auteurs prennent un exemple curieux pour illustrer leur volonté de chasser les potentielles discriminations : « Autant que possible, les [scientifiques « nourrissant » les IA] devraient fournir la définition précises des descripteurs de chaque donnée. Par exemple, dans le cas des données criminelles et judiciaires, connaître le type de ‘crime’ à partir duquel un modèle a été entraîné clarifiera de quelle manière ce modèle devra être appliqué et interprété. »
Et, pour éviter toute discrimination – notammant dans le domaine de l’analyse des données sur la criminalité -, les scientifiques proposent tout simplement « d’orienter » les données ! En clair, il s’agit tout simplement de manipuler les données pour éviter que les IA, à force d’analyser le réel – ici, par exemple, la surreprésentation des Afro-américains dans la commission de crimes et délits -, deviennent obligées de constater des différences entre les populations contraires au mythe égalitariste.
« L’une [des solutions aux biais racistes et sexistes] implique d’incorporer des contraites et, essentiellement, d’orienter le modèle d’apprentissage de l’IA afin de s’assurer qu’elle atteigne des performances équitables au travers des différentes sous-populations et entre des individus similaires. Une solution liée à cela implique de changer l’algorithme d’apprentissage en réduisant sa dépendance à des attributs sensibles comme l’appartenance ethnique, le genre ou les revenus ainsi qu’avec toute information reliée à ces caractéristiques. »
La révolution de l’intelligence artificielle dans les années à venir risque d’être irrépressible. Et malgré les efforts de certains scientifiques prêts à beaucoup de sacrifices pour continuer à préserver l’idéologie égalitaire, le retour du réel est inévitable.
Crédit photo : Domaine public, via PixaBay
[cc] Breizh-info.com, 2018, dépêches libres de copie et de diffusion sous réserve de mention et de lien vers la source d’origine