Norman, la première intelligence artificielle psychopathe

07 | 18

Les insolites

Norman, la première intelligence artificielle psychopathe


L'intelligence artificielle a le vent en poupe et s'invite dans notre quotidien : vous discutez déjà probablement avec des chatbots (ou robots conversationnels), vous utilisez peut-être des logiciels de reconnaissance d'images… Généralement, ces logiciels dopés à l'IA sont avenants et conciliants. Et si ce n'était pas toujours le cas ? Aujourd'hui, nous vous présentons Norman, une intelligence artificielle bien peu recommandable puisqu'elle est devenue totalement psychopathe !


 


Comment peut-on rendre une intelligence psychopathe ?


Une intelligence artificielle évolue en fonction des informations dont elle se nourrit. Elle fonctionne en effet par analogie, tirant profit de ses expériences passées pour répondre à chaque situation nouvelle.




Pour "éduquer" Norman, les chercheurs du MIT lui ont proposé des images d'une rare violence, puisées dans les alcôves les plus sombres du web. Meurtres par armes à feu ou armes blanches, morts violentes, sordides ou horribles, rien ne lui a été épargné.


Son nom, Norman, est d'ailleurs inspiré par l'un des films d'horreur les plus connus, Psychose d'Alfred Hitchcock, et par le personnage Norman Bates.


 


Comment sait-on que Norman est devenu psychopathe ?


Après avoir nourri Norman des images les plus horribles et violentes, les chercheurs du MIT Media Lab lui ont montré des images issues du test de Rorschach. Ce test est très célèbre et souvent présent au cinéma : les sujets se voient proposer des images avec des tâches d'encre et doivent les interpréter. Dans le cas de Norman, le verdict est sans appel. En effet, là une IA standard voit par exemple "un vase avec des fleurs", Norman va proposer une interprétation moins bucolique en y voyant «un homme en train de se faire abattre». De même, quand une IA classique voit dans une image un couple qui se fait face, Norman l'interprète comme un homme qui saute d'une fenêtre.




Capture d'écran – MIT Media Lab


 


Quel est l'intérêt d'une telle recherche ?


Mais pourquoi des chercheurs décident-ils de transformer une intelligence artificielle en un monstre ? Derrière ce qui peut ressembler à une idée saugrenue se cache un enjeu majeur : mesurer à quel point une IA peut être influencée par ce qui lui est proposé.


Norman fait écho à un raté involontaire de Microsoft, dont le chatbot lancé en 2016, Tay, devait être éduqué par les internautes. Il a rapidement commencé à tenir des propos racistes. Sophia, une autre intelligence artificielle au visage humain, avait proposé en mars 2016 de détruire les humains, avant de se raviser plus tard.


L'expérience du MIT ne s'arrête pas là. En effet, les internautes sont sollicités pour adoucir la vision pessimiste de Norman. Ils sont encouragés, via un fichier Google Docs, à proposer des interprétations plus positives du test de Rorschach. Ainsi, toute l'importance des jeux de données qui servent à faire évoluer les intelligences artificielles est mise en valeur.


Espérons que cette IA arrive à changer son regard sur le monde !

Retour

A lire dans la même rubrique :