Comment ne pas répéter les erreurs de Victor Frankenstein ?

S'inspirant de l'intrigue d'un roman gothique de science-fiction classique, les auteurs de Pitch Avatar L'équipe explore les écueils à éviter lors de la création et de l'amélioration de l'intelligence artificielle.

Ceux qui craignent que l'intelligence artificielle ne devienne incontrôlable et ne représente une grave menace pour l'humanité sont souvent qualifiés de « syndrome de Frankenstein ». La comparaison est pertinente. Pour rappel, dans le roman de Mary Shelley paru en 1818, on peut lire : « Le syndrome de Frankenstein » Frankenstein ou le Prométhée moderne, le protagoniste, Victor FrankensteinIl crée une créature humanoïde à partir de morceaux de corps et lui insuffle la vie. Cependant, la créature se rebelle contre son créateur et se lance dans une série de meurtres, commettant une série de crimes violents.

Ce récit classique, l'un des premiers du genre science-fiction, est souvent cité comme une mise en garde contre les tentatives de créer une intelligence rivalisant avec la puissance humaine. Shelley, avec une remarquable clairvoyance, a démontré que de telles ambitions pouvaient mener à des conséquences désastreuses.

Cependant, approfondissons l'intrigue et examinons le véritable message du roman de Mary Shelley. De quoi nous met-elle en garde, exactement ?

Pour commencer, Victor Frankenstein n'est pas animé par un but pratique. On ne peut même pas dire qu'il soit uniquement obsédé par la curiosité scientifique. Son travail est une tentative de surmonter le deuil qu'il a subi suite au décès de sa mère. Autrement dit, la création de sa créature de laboratoire ne lui donne aucun objectif précis. Il ne se soucie ni des conséquences de sa découverte, ni des précautions de sécurité nécessaires.

La prochaine erreur de Frankenstein est que, terrifié par sa création, il l'abandonne à son sort. La créature, dotée de raison, apprend à survivre seule parmi les humains, mais son apprentissage est désorganisé et la conduit finalement à son premier acte de violence.

Finalement, réalisant que sa création est devenue dangereuse, le scientifique, au lieu de demander de l'aide à ses collègues ou aux autorités, tente de gérer seul les conséquences de son expérience. Il en résulte de nouvelles victimes et, finalement, la mort de Frankenstein lui-même.

Ainsi, si l'on considère l'histoire objectivement, l'avertissement de Mary Shelley ne concerne pas la découverte scientifique en elle-même, mais les expérimentations mal conçues, non sécurisées et imprudentes. Il s'agit d'une mise en garde universelle pour tous les scientifiques, et pas seulement pour ceux qui travaillent dans le domaine de l'intelligence artificielle.

Résumé

Lors du développement de modèles d'intelligence artificielle, il est crucial de définir clairement leur objectif et leur champ d'application. Il est tout aussi important d'évaluer les risques potentiels et de mettre en œuvre un système d'arrêt fiable.

Chaque modèle doit suivre une formation systématique de haute qualité, avec la supervision d'experts à chaque étape.

Si l'expérimentation avec un modèle d'IA particulier présente un danger réel et non hypothétique, les experts concernés doivent immédiatement alerter les autorités et leurs collègues afin de mobiliser les ressources nécessaires pour atténuer le risque.

En suivant ces directives simples, inspirées du roman de Mary Shelley, nous pouvons minimiser les risques associés à ce que craignent les partisans du « syndrome de Frankenstein ».