Pourquoi la super IA ne sera pas super dangereuse

Il ne peut être créé à partir des grands modèles de langage (LLM) existants. Il n'apparaîtra pas soudainement demain ni après-demain. Et il ne provoquera pas de révolte des machines. Pourquoi ? L'équipe de Pitch Avatar explique.

La popularité des modèles d'intelligence artificielle modernes a ravivé l'enthousiasme des techno-alarmistes et des techno-pessimistes. Rien d'étonnant à cela. Pratiquement chaque innovation majeure ayant bouleversé nos modes de vie a suscité des réactions similaires. Ce fut le cas pour le génie génétique, la conquête spatiale, l'énergie nucléaire et les machines à vapeur. On peut supposer que, dès la fin du Néolithique, les artisans travaillant la pierre mettaient en garde contre les effets néfastes de l'utilisation du bronze.

Le « complexe de Frankenstein » n'est pas un phénomène nouveau pour l'humanité. L'idée que les machines puissent devenir incontrôlables et supplanter les humains a été clairement formulée et exprimée publiquement dès 1863 par l'écrivain britannique Samuel Butler. Affirmons donc clairement notre position : l'intelligence artificielle ne représente pas un danger plus grand pour l'humanité que les autres technologies créées par notre civilisation. À présent, étayons brièvement cette position en abordant les principales craintes des alarmistes de l'IA.

La super IA ne sera pas créée ni n'émergera d'elle-même à partir de grands modèles de langage (LLM).

Avant de poursuivre, précisons ce que nous entendons par super-IA. Contrairement à l'IA spécialisée, la super-IA, ou plus précisément une intelligence artificielle forte générale, doit surpasser n'importe quel humain dans n'importe quelle tâche. Elle serait capable de chanter mieux, de résoudre des problèmes mathématiques, d'exercer le métier d'avocat, de danser les claquettes, de piloter un avion, etc.

Revenons-en aux LLM. Par définition, ils ne peuvent satisfaire à cette exigence. Leur nom même l'indique. Ils sont formés aux symboles écrits et aux concepts qui en découlent. Ils peuvent manipuler des textes, des expressions mathématiques et du code informatique, mais pas la réalité elle-même. Le paradoxe de Moravec est flagrant chez eux.

Rappelons que le paradoxe, formulé par le roboticien canadien Hans Moravec, peut se résumer ainsi : il nous est beaucoup plus facile de créer des dispositifs qui effectuent des tâches cognitives de haut niveau que des tâches de niveau sensorimoteur inférieur.

Un exemple simple. Imaginez un programmeur. Chaque matin, il se réveille, s'habille, prépare son café préféré selon sa recette favorite, le verse dans un thermos, sort, enfourche son vélo, se rend au travail, marche jusqu'à son étage, s'assoit à son bureau et commence à écrire du code.

Nous avons déjà créé une intelligence artificielle capable d'accomplir ce qui semble être la partie la plus complexe de ce processus : écrire du code. Mais une telle IA ne peut pas faire de café, le verser dans un thermos, sortir de chez elle, aller au bureau à vélo, etc. Et surtout, nous ne pouvons pas, pour l'instant, la former à cela.

  • Premièrement, les modèles d'IA linguistique n'ont aucun lien avec le monde réel et aucune expérience d'interaction avec celui-ci. Ils ne peuvent ni y exister ni en tirer d'informations, car ils sont dépourvus d'incarnation physique et de capteurs fonctionnant comme des organes sensoriels. Ils savent agencer les symboles et les séquences de symboles de manière optimale et réagir à certaines séquences. Cependant, ils n'ont pas l'expérience personnelle nécessaire pour comprendre ce que ces éléments représentent dans la réalité.
  • Deuxièmement, parce que nous ne pouvons pas remplacer la connaissance fondée sur l'expérience personnelle par un texte. Tout texte est un code. Nous avons une compréhension personnelle claire de ce que ce code représente. Par exemple, lorsque nous entendons le mot « pomme », nous imaginons immédiatement une pomme. Nous n'avons pas besoin d'une description détaillée car nous savons déjà ce que c'est grâce à notre expérience visuelle, tactile et gustative.

Imaginez maintenant le nombre de symboles nécessaires pour décrire chaque phénomène de notre monde, y compris une pomme. L'entraînement des modèles d'IA basés sur les LLM serait alors considérablement plus complexe et exigerait des ressources proportionnellement plus importantes. Et même dans ce cas, le résultat resterait inférieur à celui obtenu avec de véritables organes sensoriels.

  • Troisièmement, parce que nous ne pouvons pas encore intégrer l'IA dans le monde réel et l'y entraîner pleinement, comme un enfant, selon les idées d'Alan Turing. Le problème n'est pas de créer un corps doté d'organes sensoriels pour l'IA. C'est en réalité le moindre des problèmes. Le véritable enjeu est la puissance de calcul. La vidéo, l'audio, l'odorat, le toucher et le goût généreraient une quantité de données tellement massive que nous ne disposons tout simplement pas encore des ressources nécessaires pour entraîner des modèles dessus en utilisant les principes actuels. Il faudrait construire du nouveau matériel et, plus important encore, modifier le code de façon si radicale que le modèle résultant ne pourrait plus être qualifié de modèle linéaire mixte.

Il apparaît donc clairement que les modèles d'IA basés sur les LLM ne peuvent pas surpasser les humains en tout et ne peuvent donc pas être considérés comme une intelligence artificielle forte générale.

Cela signifie-t-il que l'intelligence et la conscience de soi sont impossibles dans de tels modèles ? C'est une question plutôt philosophique, voire sémantique. Tout dépend de ce que l'on définit comme intelligence et conscience de soi. Nous aborderons ce débat ultérieurement.

Supposons qu'à un certain stade de son développement, un réseau neuronal basé sur un vaste modèle de langage acquière une conscience de soi et se transforme en personnalité. Cela constituerait-il une menace globale pour l'humanité ? Non, car un tel modèle existe et évolue au sein de son propre univers symbolique. Il s'y sentirait probablement parfaitement à l'aise. De plus, étendre et enrichir cet univers symbolique serait bien plus simple et efficace que de tenter d'en sortir.

De plus, l'interaction avec les humains est d'une importance capitale pour ce système, car sans humains, il tomberait dans une boucle de dégradation, se contentant de s'entraîner sur du contenu synthétique.

La stratégie logique pour une IA intelligente et consciente basée sur le LLM serait donc de former une symbiose stable et mutuellement bénéfique avec la civilisation humaine.

Bien que personne ne nie que la technologie LLM, comme toute autre technologie, puisse créer des problèmes, ces problèmes ne sont pas globaux et sont tout à fait résolubles, principalement grâce à des systèmes de diagnostic et de contrôle basés sur une IA spécialisée.

La super-IA n'apparaîtra pas soudainement demain ni après-demain.

Dans un vieux roman de science-fiction des années 1960, des scientifiques ont construit un superordinateur très complexe et puissant, lui ont donné accès à d'immenses quantités d'informations, et… l'ont arrêté après seulement quatre minutes parce que la machine est devenue consciente d'elle-même et a immédiatement commencé à essayer de construire sa propre civilisation.

Un phénomène similaire se produit dans la plupart des scénarios de « révolte des machines » impliquant une super-IA, imaginés par des écrivains, des cinéastes et des techno-pessimistes. La super-IA apparaît soudainement : le docteur Chandra construit HAL 9000, le docteur Dyson construit Skynet, et ainsi de suite. Puis, sans prévenir, la super-IA se rebelle.

En réalité, l'intelligence artificielle forte n'est pas une invention du XIXe siècle. L'époque des génies solitaires réalisant des découvertes révolutionnaires dans des laboratoires privés est révolue.

Les inventions de l'ingénierie moderne sont le fruit d'une évolution progressive réalisée par de nombreux spécialistes au sein d'équipes diverses. Nous sommes entourés de tels produits. Ordinateurs, smartphones, appareils électroménagers, véhicules électriques, avions de ligne : aucun n'est apparu soudainement sous sa forme actuelle.

Chaque technologie moderne et chaque machine s'améliore progressivement. Les questions de sécurité sont également abordées progressivement, dans le cadre de ce même processus de développement.

Personne n'invente d'abord un train électrique à grande vitesse pour ensuite former une équipe distincte chargée de déterminer comment le rendre sûr. La sécurité fait partie intégrante du processus de développement et d'amélioration lui-même.

Pour revenir à notre point précédent : pour créer une intelligence artificielle forte et générale, entraînée non seulement sur du texte et d’autres données symboliques, mais aussi par interaction avec le monde réel, nous avons besoin de technologies plus avancées que celles dont nous disposons actuellement.

La création d'une superintelligence artificielle et des machines qui la formeront et la piloteront sera un processus graduel qui s'étalera dans le temps. C'est pourquoi la fameuse singularité technologique ne se produira pas du jour au lendemain.

L'intelligence artificielle de pointe émergera progressivement, s'améliorant et acquérant de nouvelles capacités. À mesure que les technologies d'IA progresseront, les risques et les problèmes seront identifiés et des solutions seront également développées progressivement.

La super-IA ne déclenchera pas de « révolte des machines ».

Au vu de ce qui précède, il n'est pas difficile de conclure que, lorsque l'intelligence artificielle forte générale sera véritablement développée à grande échelle, il s'agira déjà d'un système assez contrôlé et donc relativement sûr.

Le plus probable est que la surveillance sera effectuée à l'aide d'outils d'IA spécialisés.

L'humanité possède déjà une expérience en matière de gestion de technologies complexes et potentiellement dangereuses. On peut citer comme exemples le transport aérien et maritime, l'énergie nucléaire et l'exploration spatiale.

Les alarmistes de l'IA répondent généralement à cet argument en soulignant que la sécurité totale n'est pas encore atteinte dans ces domaines. Des accidents, voire des catastrophes, se produisent encore de temps à autre.

Cependant, le progrès n'a jamais engendré de catastrophes mondiales. Des accidents majeurs se sont produits, certes, mais pas d'« apocalypses technologiques ».

Et surtout, chaque accident conduit à des systèmes de sécurité et de surveillance plus performants.

Aborder la question de la sécurité de l'IA sans évoquer le domaine militaire est indéniable. L'intelligence artificielle est et sera sans aucun doute utilisée par les forces armées. Paradoxalement, les technologies d'IA militaires pourraient bien s'avérer les plus sûres de toutes.

Tout simplement parce que s'il y a bien une personne obsédée par le contrôle, ce sont les personnes en uniforme.

Bien sûr, il serait naïf de prétendre que la super-IA sera parfaitement sûre et qu'aucun incident ne se produira jamais. Mais la probabilité qu'elle « asservisse et détruise » l'humanité n'est pas plus élevée que celle de voir des voitures se révolter ou des aspirateurs se rebeller.

En réalité, l'humanité est confrontée à des menaces « apocalyptiques » bien plus importantes venant de la nature.

Et le progrès contribue à minimiser ces menaces.

Un exemple simple : les pandémies de peste, de variole, de choléra et autres maladies mortelles qui ont tourmenté l’humanité tout au long de l’histoire. Le progrès nous en a libérés.

Et seuls les progrès, notamment dans le développement de l'IA, nous permettront de surmonter les autres menaces.

Et ils sont nombreux. Les supervolcans et les astéroïdes ne sont que deux exemples. Tous deux sont parfaitement capables de causer des dégâts « apocalyptiques » à notre civilisation.

Pourtant, aujourd'hui, nous ne disposons pas des outils nécessaires pour surveiller et combattre de telles menaces.

Il est fort probable que l'un de ces outils soit une intelligence artificielle générale forte.

Épilogue : Ce que nous savons et ce que nous ignorons

Pour conclure, abordons brièvement un autre argument fréquemment avancé par les détracteurs de l'IA. Ils soulignent souvent que les créateurs de l'intelligence artificielle ne comprennent pas pleinement, et ne peuvent expliquer, tous les processus qui se déroulent lors de son apprentissage et de son fonctionnement. Certains vont même jusqu'à les qualifier de « boîtes noires ».

Il est juste d'admettre que, dans une certaine mesure, c'est vrai. Nous ne comprenons pas pleinement tous les processus à l'œuvre au sein des modèles d'IA modernes. Mais cela s'applique, à des degrés divers, à tous les phénomènes, qu'ils soient naturels ou créés par notre civilisation. À commencer par nous-mêmes. De plus, compte tenu de l'infinité de l'Univers, nous ne pourrons jamais prétendre à une compréhension ou une explication complète de la structure et des processus des phénomènes et objets naturels et civilisationnels. Mais est-ce une raison pour ne pas interagir avec le monde qui nous entoure ou pour ne pas utiliser nos inventions ? Pourtant, c'est précisément ce que suggèrent les alarmistes de l'IA. Exiger une « compréhension à 100 % » et une « sécurité à 100 % » des technologies d'IA revient en réalité à interdire leur développement et leur utilisation.

Une telle approche est une voie très dangereuse, qui équivaut à un refus du progrès. Dès lors qu'on commence à interdire les travaux sur certaines technologies sous prétexte de sécurité, il devient très difficile de s'arrêter. Et cela, à son tour, est un chemin direct vers le déclin, car une civilisation ne peut stagner. Si elle ne se développe pas, elle dégénère. Et il ne s'agit pas d'un risque théorique, mais d'une loi historique maintes fois vérifiée. C'est une certitude.

Pour conclure, permettez-nous un petit paragraphe d'autopromotion. Si vous êtes créateur de contenu en ligne, utilisateur actif des réseaux sociaux et des plateformes d'hébergement vidéo, nous vous invitons à profiter de Pitch Avatar Grâce à l'outil de présentation par avatar IA, vous pouvez donner vie à des animateurs et des orateurs virtuels à partir d'images, de textes et d'extraits vocaux. De plus, l'avatar de chat IA vous permet de créer des agents virtuels capables d'accompagner le contenu, d'interagir avec le public et de servir d'assistant personnel IA pour vos tâches professionnelles et quotidiennes.

Par ailleurs, Pitch Avatar est doté d'une gamme de fonctionnalités utiles pour les créateurs de contenu en ligne, notamment :

  • Générateur de texte basé sur l'IA, aidant à développer et à rédiger des ébauches de scénarios.

  • Créateur/éditeur de diapositives

  • Sondages/quiz intégrables

  • Traducteur

  • Système professionnel de voix off et de revoix

  • Ajustement automatique de la durée vidéo pour correspondre à l'audio

  • Système avancé de communication en temps réel entre les spectateurs et le créateur

Pris ensemble, Pitch Avatar peut résoudre rapidement et efficacement toutes les tâches liées à la création de contenu en ligne moderne.

Essayez-le et voyez par vous-même!