L'équipe Pitch Avatar propose dans le titre son point de vue sur cette question largement débattue.
Le développement rapide de l'intelligence artificielle et des solutions qui en découlent a rapidement suscité un mouvement en faveur de la limitation de son utilisation. Des efforts visant à établir des règles, voire des lois, concernant les limites de l'application de l'IA sont déployés dans divers domaines tels que le monde universitaire, l'éducation, la publicité, le journalisme et la politique. Il ne s'agit pas seulement de divulguer que des contenus sont générés par l'IA, mais aussi d'interdire l'utilisation d'outils et de solutions d'IA dans certains contextes. Explorons l'origine de ces idées et évaluons leur impact potentiel.
Les machines du diable
Remontons le temps. L'un des auteurs se souvient d'une époque où les élèves n'étaient autorisés à utiliser des stylos à encre à l'école que pour améliorer leur écriture, et où les calculatrices étaient strictement interdites afin qu'ils apprennent la précieuse compétence du calcul manuel. C'était, notamment, bien après l'invention et la généralisation des ordinateurs personnels. Déjà à l'époque, il était clair que, si ces compétences traditionnelles n'étaient pas totalement inutiles, elles étaient au mieux secondaires. En pratique, il aurait été bien plus utile d'apprendre aux élèves à taper à l'aveugle, à naviguer sur un PC avec compétence, à programmer et à effectuer des calculs avec des logiciels spécialisés. Bref, tout ce que les élèves d'aujourd'hui apprennent sans difficulté. Il est intéressant de noter que l'auteur et ses camarades, malgré les interdictions, utilisaient secrètement des calculatrices qu'ils cachaient sous leurs bureaux.
Devinez où nous voulons en venir ? Les solutions progressistes trouvent toujours leur place dans la vie quotidienne, dans tous les domaines de l'activité humaine, y compris la recherche et l'éducation. Et ce, malgré les vives protestations et les avertissements sérieux des conservateurs. Ceux-ci vont des enseignants craignant que les nouvelles innovations, qu'il s'agisse des ordinateurs d'hier, des smartphones et d'Internet d'aujourd'hui ou de l'IA de demain, rendent la prochaine génération plus stupide que la précédente, aux techno-alarmistes qui avertissent constamment que l'humanité devient trop dépendante des inventions.
Un schéma similaire est apparu aux débuts de l'imprimerie. Dans de nombreuses villes et pays, scribes et calligraphes ont résisté à la diffusion de l'imprimerie. Certains ont fait pression sur les dirigeants pour protéger leurs intérêts, d'autres ont organisé des attaques contre les imprimeurs et leurs employés, tandis que certains, par l'intermédiaire de responsables religieux, ont même qualifié l'imprimerie d'invention diabolique.
D'ailleurs, ce dernier argument a toujours été appliqué à toute innovation technologique. On prétendait que toute invention facilitant le travail humain conduisait inévitablement à la paresse. Cela ne vous rappelle-t-il pas quelque chose ? Cela ressemble beaucoup au raisonnement de ceux qui affirment que les inventions simplifiant le travail intellectuel « étourdissent » les gens, les rendant mentalement paresseux.
Phobies et jalousie
Malheureusement, comme nous pouvons le constater, dans de nombreux cas, les motivations derrière la promotion d'une limitation de l'utilisation de l'IA ne sont pas motivées par le désir de « rendre le monde meilleur ». Elles sont souvent ancrées dans diverses formes de peur.
Tout d'abord, il y a la technophobie bien connue. Elle conduit à exiger, de manière irréaliste, que les inventeurs, les concepteurs et les développeurs garantissent que les nouvelles technologies soient « absolument sûres ». Or, la nature même de notre monde rend une garantie de sécurité à 100 % fondamentalement impossible. Derrière de nombreux arguments apparemment raisonnables, comme « retardons la mise en œuvre pour nous concentrer sur la sécurité », se cache la peur irrationnelle habituelle de toute nouveauté. Soyons honnêtes, si nous avions suivi cet état d'esprit, le bateau à vapeur de Fulton n'aurait jamais pris la mer, la locomotive à vapeur de Stephenson n'aurait jamais fonctionné et l'avion des frères Wright n'aurait jamais décollé.
Alors, comment repérer un technophobe dans un débat sur l'adoption et l'utilisation de l'IA ? C'est assez simple.
Les technophobes rejettent catégoriquement l'idée d'un « risque raisonnable ». Ils refusent généralement d'évaluer la technologie de manière équilibrée, se concentrant uniquement sur les conséquences négatives potentielles, même celles qui sont totalement fantaisistes.
Ensuite, il y a le luddisme, la peur de perdre son emploi. Ou, plus généralement, la peur des changements que les nouvelles technologies pourraient apporter, qui pourraient forcer les gens à se transformer et à modifier leur mode de vie. Pour faire une analogie grossière, c'est comme la peur qu'éprouvaient autrefois les chauffeurs de taxi lors de l'arrivée des voitures. Des arguments émotionnels tels que « les robots volent les emplois », rappelant les mondes fictifs d'Isaac Asimov, sont courants chez les luddites modernes. Personne ne nie que le progrès peut entraîner, et entraîne généralement, des transitions douloureuses sur le marché du travail. Cependant, ce n'est guère une raison pour interdire ou restreindre la technologie. La solution réside plutôt dans la création de mécanismes sociaux et publics qui aident les individus à s'adapter aux nouvelles circonstances. La principale différence entre ceux qui cherchent véritablement à résoudre le problème et les néo-luddites réside dans l'approche : ceux qui recherchent de vraies solutions se concentrent sur la manière d'aider les gens à faire la transition plutôt que de résister au changement technologique.
Dans ce contexte, nous devrions réfléchir à la manière d’introduire l’IA dans l’éducation et de former les gens à utiliser ces outils, plutôt que de chercher à limiter son utilisation dans ce domaine.
Concluons cette section en abordant un phénomène désagréable : l'envie. L'un des auteurs a rencontré un jour un éditeur expérimenté qui, observant ses jeunes collègues travailler sur leurs ordinateurs, aimait râler : « Pourquoi vous payent-ils ? » En substance, parmi ceux qui s'opposent à l'adoption généralisée de l'IA, on trouve des personnes qui estiment que la génération actuelle a la vie trop facile. Leur état d'esprit peut se résumer ainsi : « Si c'était difficile pour moi, ça devrait l'être aussi pour eux. » Bien sûr, ils ne l'admettraient jamais, et trouvent plutôt des justifications plus acceptables à leur position, comme l'affirmation que l'utilisation des technologies modernes « stupéfie » les gens et les empêche de « développer une belle écriture ».
La guillotine de Clark au lieu des interdictions
À première vue, on pourrait croire que les auteurs prônent l'introduction sans contrôle et l'utilisation généralisée des outils d'IA dans tous les aspects de la vie. Mais ce n'est pas le cas. Ce que nous soulignons, c'est que les interdictions et restrictions formelles n'auront que peu d'effet. Chacun trouvera des moyens d'utiliser l'intelligence artificielle, que ce soit autorisé ou non. Après tout, nous n'avons pas mentionné au hasard les calculatrices cachées sous les bureaux.
De plus, le rythme rapide du développement de l'IA indique que, dans un avenir proche, il sera quasiment impossible de distinguer les résultats produits par l'intelligence artificielle de ceux créés par les humains. Alors, comment les « restricteurs et prohibiteurs » prévoient-ils de contrôler et de faire respecter ces restrictions et interdictions ? Objectivement, il faut reconnaître que l'IA, en tant que technologie largement accessible, sera appliquée dans tous les domaines, de l'éducation préscolaire à la gestion de systèmes complexes tels que les entreprises internationales, les gouvernements et les organisations supranationales. Plutôt que de se concentrer sur les interdictions et les restrictions, nous devrions nous concentrer sur deux tâches claires et réalisables.
La première tâche consiste à créer des agents IA « compétents », capables d'exécuter les tâches qui leur sont assignées sans tomber dans le délire ou les hallucinations de la machine. Il est probable que le développement de telles solutions deviendra réalisable une fois que nous aurons atteint l'ère de l'IA forte.
La deuxième tâche consiste à mettre en place un système de contrôle des agents d'IA, où l'autorité ultime demeure entre les mains des humains. L'écrivain de science-fiction et scientifique Arthur C. Clarke, qui a largement exploré la relation entre l'IA et les humains dans ses œuvres, a un jour suggéré que chacun devrait toujours pouvoir « débrancher » l'IA. Dans l'un de ses romans, il a même imaginé un dispositif qu'il a appelé « guillotine », conçu pour couper l'alimentation d'un supercalculateur d'IA sur ordre humain. Il semble que le moment soit venu pour l'humanité de réfléchir à la mise en œuvre d'une telle « guillotine ».
Serait-il éthique qu'une IA forte émerge et soit reconnue comme un individu égal aux humains ? Nous pensons que personne ne contesterait que l'humanité doit conserver le droit de décision final sur toutes les questions et décisions qui la concernent. Cela étant dit, il est crucial que nous commencions dès aujourd'hui à discuter du « degré de liberté personnelle » de l'IA forte. Cette discussion est bien plus importante que de débattre de l'utilisation des outils basés sur l'IA.