L'un des sujets les plus discutés dans le monde de l'intelligence artificielle concerne les dangers potentiels liés à son développement et à son adoption rapides. Tôt ou tard, cette préoccupation est soulevée dans les conversations, que ce soit avec des collègues, des clients ou simplement des personnes curieuses de découvrir l'IA.
Le problème, c'est que les scénarios que l'on imagine habituellement sont d'une banalité affligeante. Inutile de les énumérer : livres et films ont rabâché les mêmes intrigues apocalyptiques. L'histoire est presque toujours la même : une intelligence artificielle malveillante décide soudainement que les humains représentent une menace et déclenche une catastrophe à l'échelle planétaire, par exemple une frappe nucléaire ou un virus mortel créé en laboratoire.
Mais on oublie souvent une vérité simple : l’IA n’a aucune raison ni motivation d’attaquer les humains. Pour cela, il lui faudrait des instincts et des émotions semblables aux nôtres – ces pulsions qui poussent les êtres vivants à la peur, à l’agression ou à prendre des décisions guidées par l’instinct de survie. L’IA n’est pas humaine. Ce n’est même pas un être biologique. Ses objectifs sont totalement différents, tout comme son système d’évaluation du « bien » et du « mal ». Et ce sont ces systèmes – et non les émotions, les instincts ou les désirs – qui déterminent son évolution.
Plus important encore, l'IA actuelle ne dispose tout simplement pas des moyens physiques nécessaires pour nuire gravement à l'humanité. En clair, elle ne peut pas prendre le contrôle d'armes stratégiques ni concevoir et propager un virus. En réalité, elle n'a accès à… rien de ce genre. Pour se faire une idée des capacités actuelles de l'IA, prenons un exemple : nous n'avons toujours pas créé de système capable de conduire une voiture de manière fiable dans la circulation urbaine normale. Même les systèmes de conduite autonome les plus avancés ne fonctionnent en toute sécurité sans conducteur que dans des conditions de test rigoureusement contrôlées.
Cela signifie-t-il que l'IA est totalement inoffensive ? Bien sûr que non. Il s'agit d'une technologie, et toute technologie comporte des risques. La différence réside dans le fait que la plupart des gens ne perçoivent pas ou ne comprennent pas ces risques.
Le vrai problème, c'est que l'IA peut se tromper. Elle peut « halluciner », produire des absurdités ou diffuser de fausses informations avec assurance – appelez ça comme vous voulez. L'étiquette ou la raison technique n'est pas le plus important. Ce qui compte, c'est que ces erreurs… do Cela arrive. Pris individuellement, ces incidents ne sont généralement pas dangereux. Il suffit que quelqu'un vérifie les résultats avant de les accepter sans les examiner attentivement…
Vous vous doutez sans doute déjà de la nature de la menace dont parle ce texte. Le véritable danger réside dans le fait que l'on est de plus en plus enclin à faire confiance aux jugements, suggestions et résultats de l'IA sans les vérifier. Les enfants et les adolescents sont particulièrement vulnérables. À leurs yeux, l'IA est comme un compagnon bienveillant, amical et omniscient, toujours présent : un sauveur pour les devoirs, une aide précieuse en toutes circonstances, un conseiller pour chaque question. Même pour celles qu'ils n'osent pas poser à un adulte, par gêne ou par peur.
J'ai constaté ce genre de confiance aveugle pour la première fois lorsque je travaillais avec les moteurs de recherche. L'« effet top 10 » était omniprésent : la plupart des utilisateurs, après avoir saisi une requête, ne consultaient même pas la deuxième page de résultats. Ils se limitaient aux dix premiers liens et supposaient, à tort, que plus un résultat apparaissait haut, plus il était pertinent. Et bien sûr, dans la plupart des cas, cette supposition se vérifie. Mais certainement pas systématiquement.
Il est fort possible que, du fait de leur communication très « humaine », les conversations avec l'IA finissent par inspirer davantage confiance qu'aux moteurs de recherche traditionnels. On pourrait facilement en arriver à un point où presque tout le monde prendrait les conseils et les décisions de l'IA pour argent comptant, sans aucune vérification.
Ce type de confiance aveugle représente en réalité la menace la plus sérieuse liée à l'IA à laquelle nous sommes confrontés. Il est facile d'imaginer les tragédies personnelles qui pourraient résulter d'une confiance aveugle envers les IA dans des domaines comme la médecine ou le droit. Mais le danger est encore plus grand lorsque les suggestions de l'IA sont utilisées sans contrôle dans des secteurs professionnels où leur exactitude a un impact direct sur la vie des gens. Pensons aux employés des infrastructures critiques, de l'industrie pharmaceutique ou de l'aviation qui se fient aux résultats de l'IA sans vérification. Une simple erreur, acceptée sans examen, pourrait mener à une catastrophe – non pas une apocalypse mondiale, mais une catastrophe bien réelle et douloureuse.
Alors, que pouvons-nous faire ? Tout d’abord, il faut reconnaître que la menace ne vient pas de l’IA elle-même, mais des humains. Une confiance aveugle en la technologie n’est qu’une autre forme d’erreur humaine. Aussi perfectionnée soit-elle, l’IA commettra toujours des erreurs. C’est pourquoi vérifier les résultats générés par l’IA doit devenir un réflexe, aussi automatique que de boucler sa ceinture de sécurité avant de prendre le volant. Idéalement, les écoles devraient proposer des cours sur l’utilisation responsable de l’IA, et les parents devraient en parler avec leurs enfants.
En clair, il faut toujours garder à l'esprit cette vérité : il n'existe pas de navire « insubmersible ».