Des chercheurs du MIT créent une intelligence artificielle psychopathe
Pour mettre en évidence la sensibilité des intelligences artificielles et les éventuelles dérives du deep learning, des scientifiques ont délibérément éduqué une IA pour la rendre psychopathe. Norman le bien nommé en témoigne.
A la question « une intelligence artificielle peut elle devenir phychopathe ? », la réponse est oui. C’est en effet l’objet de la question et des expériences effectuées par le MIT (Massachusetts Institute of Technology) qui ont réalisé une batterie de tests sur un programme spécialement créé pour l’occasion.
Des images violentes pour éduquer une IA
Nommé Norman en mémoire du célèbre Norman Bates du film Psychose, ce sujet artificiel a été créé par l’équipe du MIT en vue de l’expérience. On imagine aisément Alfred Hitchcock se retournant dans sa tombe, pendant que les chercheurs se faisaient plaisir à éduquer Norman au moyen d’images et de vidéos particulièrement violentes.
L’expérience, qui aux premiers abords peut paraître saugrenue, visait à démontrer si oui ou non le comportement d’une IA pouvait être influencée par les données ingérées, puis dans quelle mesure celui-ci peut être corrigé par la suite selon le même procédé. En lui faisant passer le test de Rorschach ( test des tâches d’encre) et en comparant les résultats à ceux d’une autre IA (saine d’esprit), on observe clairement une différence. L’une voit une trace d’un avion dans le ciel, quand Norman voit un homme se faire tirer dessus, en tombant de sa voiture…
La question des dérives du deep learning
La première partie de l’expérience effectuée, à savoir l’éducation « violente » de Norman, les scientifiques ont ensuite poussé la chose en demandant à des internautes de fournir eux-mêmes des résultats à ce test de Rorschach, pour tenter de guérir la psychopathie de Norman – affaire à suivre.
Concernant l’intelligence artificielle, le directeur de recherche de l’IIM (Institut de l’Internet et du Multimédia) Jean-Claude Heudin rappelle que « L’intelligence artificielle vise à mimer le fonctionnement du cerveau humain, ou du moins sa logique lorsqu’il s’agit de prendre des décisions ».
Il est donc tout à fait concevable d’envisager l’IA comme une grosse éponge soumise à l’éducation et aux processus décisionnels mis à sa disposition. Sur le long terme, cette incidence est selon les scientifiques du MIT un élément à prendre en compte quant aux éventuelles dérives du deep learning, procédé aujourd’hui très employé pour concevoir notamment les IA présentes dans les objets connectés.
Le professeur Iyad Rahwan, membre de l’équipe du MIT a expliqué : « Le fait que les réponses de Norman étaient tellement plus sombres illustre une dure réalité dans le nouveau monde de l’apprentissage automatique », ajoutant : « Les données sont plus importantes que l’algorithme. Cela met en évidence l’idée que les données que nous utilisons pour former l’IA se reflètent dans la façon dont l’IA perçoit le monde et comment elle se comporte ». Un nouveau métier est né : psychologue d’intelligence artificielle !