Quand l’IA « hallucine » : comment la science-fiction a prédit les problèmes des réseaux neuronaux modernes

ou Comment travailler avec une IA qui « souffre d’hallucinations »

Un auteur de la Pitch Avatar L'équipe explique comment les auteurs de science-fiction, dès le milieu du XXe siècle, ont trouvé des solutions au problème du « délire des machines ».

Depuis le XIXe siècle, un schéma clair se dessine : bien avant que la civilisation ne soit confrontée concrètement aux problèmes liés au progrès technologique, les auteurs de science-fiction parviennent à les « inventer ». Et non seulement à les inventer, mais aussi à proposer des solutions.

Les hallucinations de l'IA — ou, comme on les appelle parfois, le délire des machines — ne font pas exception. Précisons d'emblée : il ne s'agit pas de dysfonctionnements ou de pannes causés par des dommages matériels ou, par exemple, par des virus informatiques. Il ne s'agit pas non plus d'une hypothétique « révolte des machines », où l'IA refuserait « consciemment » d'obéir aux humains et déciderait elle-même de ses actions.

Ce qui nous intéresse, ce sont les situations où l'intelligence artificielle génère des informations fausses, incorrectes, voire absurdes. Par exemple, des citations fictives attribuées à des personnes inexistantes et extraites de livres imaginaires, des liens vers des pages web inexistantes, ou encore un véritable fouillis d'images. Nous partons du principe que chaque lecteur a déjà été confronté à ce type de production d'IA. Parfois, la réponse de l'IA à une requête est tellement éloignée de la consigne qu'une envie totalement irrationnelle de la qualifier de « folle » nous prend. C'est particulièrement frustrant lorsque l'IA commence à dysfonctionner lors de la résolution d'une tâche cruciale exigeant une grande précision. De ce fait, certains utilisateurs sont tellement déçus qu'ils renoncent complètement aux outils basés sur l'IA, préférant résoudre leurs problèmes « à l'ancienne ».

Rassurez-vous, les maîtres de la science-fiction se penchent sur ce sujet depuis le milieu du siècle dernier. Pourquoi ne pas s'inspirer d'eux pour trouver une solution au problème de la « délire des machines » ?

Le terminus terrifiant

Prenons, par exemple, la nouvelle de Stanisław Lem "Terminus." L'intrigue, en résumé, est la suivante : le capitaine d'un vaisseau spatial hérite d'un vieux robot de maintenance nommé Terminus qui, tout en accomplissant ses tâches, émet constamment des messages en morse. Il s'avère que le robot a été témoin d'une catastrophe spatiale et reproduit les dernières communications entre les membres d'équipage disparus. Le plus étonnant est que lorsqu'une personne s'adresse à l'un d'eux, pour le compte duquel le robot « mène la conversation », également en morse, Terminus se met à répondre à sa place, comme s'il était encore vivant à bord du vaisseau condamné. En dehors de cela, Terminus remplit parfaitement ses fonctions et, lorsqu'on lui parle en langage humain normal, il ne se souvient ni de la catastrophe ni des membres d'équipage décédés. Le capitaine, pragmatique, utilise le robot jusqu'à la fin de la mission, puis le met au rebut.

Bien que cette histoire soit particulièrement angoissante, elle illustre parfaitement le phénomène d'hallucination artificielle. Pour une raison inconnue, durant la catastrophe, le robot doté d'une intelligence artificielle s'est entraîné à imiter les communications des membres d'équipage tentant désespérément de survivre. Les raisons de ce phénomène importent peu. L'une des idées clés de l'histoire est précisément que, lors de la création de machines intelligentes, il est impossible de prédire avec certitude les dérives de leur processus d'apprentissage automatique. L'important est ailleurs : lorsque le robot halluciné a reçu un ordre direct, clair et sans ambiguïté, il l'a exécuté avec une grande efficacité. Personnellement, j'ai toujours trouvé que le capitaine avait agi de manière trop radicale. Il aurait été bien plus logique de confier Terminus à des spécialistes pour étude.

Apparemment, Lem voulait démontrer que face aux difficultés rencontrées avec l'IA à l'avenir, les meilleures solutions seront souvent les plus simples. Autrement dit, remplacer un outil défaillant par un autre.

Logique simple

Personnellement, je préfère de loin l'idée sous-jacente à la nouvelle. "Raison" D'après un autre classique, Isaac Asimov. Dans cette histoire, un robot doté d'une intelligence artificielle semble, au premier abord, fomenter une « rébellion » classique. L'action se déroule dans une station spatiale isolée, avec un équipage de seulement deux personnes. Le robot en question est un système complexe conçu, essentiellement, pour gérer d'autres robots. Il se considère comme le « couronnement de la création », divinise l'une des machines principales de la station – le convertisseur d'énergie – et qualifie les humains d'êtres inférieurs. De plus, il commence à diffuser ses « enseignements » parmi les autres robots.

Cependant, les humains se rendent vite compte que l'IA « rebelle » obéit toujours à leurs ordres et remplit ses fonctions à la perfection. Certes, elle justifie constamment ses actions selon sa propre vision du monde, mais ses hallucinations n'ont aucune incidence sur la qualité de son travail. Par conséquent, les humains décident de ne pas prêter attention à la « folie inoffensive » du robot.

La clé réside dans la formulation.

À noter : dans les récits de Lem et d’Asimov, les IA hallucinées exécutent parfaitement leurs fonctions lorsqu’on leur donne des instructions claires et précises. Ainsi, dès l’âge d’or de la science-fiction, la principale solution au problème des hallucinations de l’IA était identifiée. Dans la plupart des cas, il suffit de formuler correctement la tâche demandée à l’IA. Pour éviter les « délires des machines », formulez vos instructions de la manière la plus claire, précise, univoque et concise possible.

Vous avez lu l'article original. Il est également disponible dans d'autres langues.