Die Autoren von Pitch Avatar Das Team untersucht, was wir bei der Entwicklung und Verbesserung künstlicher Intelligenz vermeiden sollten.
Diejenigen, die befürchten, dass künstliche Intelligenz außer Kontrolle geraten und eine ernsthafte Bedrohung für die Menschheit darstellen könnte, leiden oft unter dem „Frankenstein-Syndrom“. Der Vergleich ist durchaus treffend. Zur Einordnung: In Mary Shelleys Roman von 1818… Frankenstein oder Der moderne Prometheus, der Protagonist, Victor FrankensteinEr erschafft aus Körperteilen ein humanoides Wesen und erweckt es zum Leben. Das Wesen rebelliert jedoch gegen seinen Schöpfer und verfällt in einen gewalttätigen Amoklauf, bei dem es eine Reihe von Morden begeht.
Diese klassische Erzählung, eine der frühesten des Science-Fiction-Genres, wird oft als warnendes Beispiel gegen Bestrebungen angeführt, eine Intelligenz zu erschaffen, die der menschlichen Macht ebenbürtig ist. Shelley zeigte mit bemerkenswerter Weitsicht, dass solche Ambitionen zu katastrophalen Folgen führen können.
Doch lasst uns die Handlung genauer betrachten und die wahre Botschaft von Mary Shelleys Roman untersuchen. Wovor genau warnt sie uns?
Zunächst einmal wird Victor Frankenstein nicht von einem praktischen Ziel angetrieben. Man kann ihn nicht einmal als rein wissenschaftlich neugierig bezeichnen. Seine Arbeit ist ein Versuch, seine persönliche Trauer über den Tod seiner Mutter zu verarbeiten. Anders gesagt, er hat keinen erkennbaren Grund für die Erschaffung seines Laborwesens. Er bedenkt weder die Konsequenzen seiner Entdeckung, noch trifft er die notwendigen Sicherheitsvorkehrungen.
Frankensteins nächster Fehler ist, dass er, aus Angst vor seiner Schöpfung, diese ihrem Schicksal überlässt. Das Wesen, nun mit Vernunft ausgestattet, lernt zwar selbstständig, unter Menschen zu überleben, doch seine Selbstbildung verläuft unstrukturiert und führt schließlich zu seiner ersten Gewalttat.
Als der Wissenschaftler schließlich erkennt, dass seine Schöpfung gefährlich geworden ist, versucht er, anstatt Kollegen oder Behörden um Hilfe zu bitten, die Folgen seines Experiments allein zu bewältigen. Dies führt zu weiteren Opfern und letztendlich zu Frankensteins eigenem Untergang.
Betrachtet man die Geschichte objektiv, so bezieht sich Mary Shelleys Warnung also nicht auf wissenschaftliche Entdeckungen an sich, sondern auf schlecht geplante, ungesicherte und leichtsinnige Experimente. Dies dient als universelle Mahnung für alle Wissenschaftler, nicht nur für diejenigen, die im Bereich der KI arbeiten.
Zusammenfassung
Bei der Entwicklung von Modellen künstlicher Intelligenz ist es entscheidend, deren Zweck und Anwendungsbereich klar zu definieren. Ebenso wichtig ist die Bewertung potenzieller Risiken und die Implementierung eines zuverlässigen Abschaltmechanismus.
Jedes Modell muss ein qualitativ hochwertiges, systematisches Training durchlaufen, das in jeder Phase unter fachkundiger Aufsicht steht.
Wenn bei Experimenten mit einem bestimmten KI-Modell eine reale und nicht nur hypothetische Gefahr besteht, sollten die beteiligten Experten unverzüglich die Behörden und Kollegen alarmieren, damit diese die notwendigen Ressourcen zur Risikominderung mobilisieren können.
Indem wir diese einfachen, von Mary Shelleys Roman inspirierten Richtlinien befolgen, können wir die Risiken minimieren, die mit dem verbunden sind, was die Befürworter des „Frankenstein-Syndroms“ befürchten.