Es kann nicht auf Basis bestehender großer Sprachmodelle (LLM) erstellt werden. Es wird nicht plötzlich morgen oder übermorgen erscheinen. Und es wird keine Maschinenrevolution auslösen. Warum? Das Team von Pitch Avatar erklärt.
Die Popularität moderner Modelle künstlicher Intelligenz hat Technik-Alarmisten und Technik-Pessimisten erneut mobilisiert. Das ist nicht verwunderlich. Nahezu jede bedeutende Innovation, die unsere gewohnte Lebensweise verändert hat, löste ähnliche Reaktionen aus. Dasselbe galt für Gentechnik, Raumfahrt, Kernenergie und Dampfmaschinen. Wir vermuten, dass bereits am Ende der Jungsteinzeit Handwerker, die Steinwerkzeuge herstellten, vor den schädlichen Auswirkungen der Bronzeverwendung warnten.
Der „Frankenstein-Komplex“ ist der Menschheit keineswegs neu. Die Idee, dass Maschinen außer Kontrolle geraten und den Menschen verdrängen könnten, wurde bereits 1863 vom britischen Schriftsteller Samuel Butler klar formuliert und öffentlich geäußert. Daher möchten wir unsere Position klar darlegen: Künstliche Intelligenz stellt keine größere Gefahr für die Menschheit dar als andere von unserer Zivilisation hervorgebrachte Technologien. Im Folgenden wollen wir diese Position kurz untermauern, indem wir auf die Hauptängste der KI-Warnungen eingehen.
Super-KI wird nicht von selbst aus großen Sprachmodellen (LLM) entstehen.
Bevor wir fortfahren, klären wir zunächst, was wir unter Super-KI verstehen. Im Gegensatz zu spezialisierter KI muss Super-KI, genauer gesagt eine allgemein leistungsstarke künstliche Intelligenz, jeden Menschen in jeder Aufgabe übertreffen. Sie sollte gleichzeitig besser singen, mathematische Probleme lösen, als Anwalt arbeiten, steppen, ein Flugzeug steuern und vieles mehr.
Kehren wir nun zu den LLM-Absolventen zurück. Definitionsgemäß können sie diese Anforderung nicht erfüllen. Das zeigt sich bereits in ihrem Namen. Sie sind in der Anwendung von Schriftsystemen und den daraus abgeleiteten Konzepten geschult. Sie können mit Texten, mathematischen Ausdrücken und Programmcode arbeiten, aber nicht mit der Realität selbst. Moravecs Paradoxon wird bei ihnen deutlich sichtbar.
Erinnern wir uns daran, dass das von dem kanadischen Robotiker Hans Moravec formulierte Paradoxon wie folgt zusammengefasst werden kann: Es ist für uns viel einfacher, Geräte zu entwickeln, die kognitive Aufgaben auf hohem Niveau ausführen, als solche, die Aufgaben auf einem niedrigeren, sensomotorischen Niveau ausführen.
Ein einfaches Beispiel. Stellen Sie sich einen Programmierer vor. Jeden Morgen wacht er auf, zieht sich an, bereitet seinen Lieblingskaffee nach seinem Lieblingsrezept zu, füllt ihn in eine Thermoskanne, geht nach draußen, schwingt sich aufs Fahrrad, fährt zur Arbeit, geht in sein Stockwerk, setzt sich an seinen Schreibtisch und beginnt zu programmieren.
Wir haben bereits eine künstliche Intelligenz entwickelt, die den scheinbar komplexesten Teil dieser Sequenz ausführen kann – das Schreiben von Code. Doch eine solche KI kann weder Kaffee kochen, noch ihn in eine Thermoskanne füllen, das Haus verlassen, mit dem Fahrrad ins Büro fahren usw. Und vor allem können wir ihr das derzeit nicht beibringen.
- Erstens, weil linguistische KI-Modelle keine Verbindung zur realen Welt haben und keine Erfahrung in der Interaktion mit ihr besitzen. Sie können nicht in ihr existieren oder Informationen aus ihr gewinnen, da ihnen eine physische Verkörperung und Sensoren, die als Sinnesorgane fungieren, fehlen. Sie wissen zwar, wie sie Symbole und Symbolfolgen optimal anordnen und wie sie auf bestimmte Symbolfolgen reagieren, aber ihnen fehlt die notwendige persönliche Erfahrung, um zu verstehen, was diese Dinge in der Realität repräsentieren.
- Zweitens, weil wir Wissen, das auf persönlicher Erfahrung beruht, nicht durch Text ersetzen können. Jeder Text ist ein Code. Wir haben ein klares persönliches Verständnis davon, was dieser Code repräsentiert. Wenn wir beispielsweise das Wort „Apfel“ hören, stellen wir uns sofort einen Apfel vor. Wir brauchen keine detaillierte Beschreibung, weil wir aufgrund unserer visuellen, taktilen und geschmacklichen Erfahrungen bereits wissen, was es ist.
Stellen Sie sich nun vor, wie viele Symbole nötig wären, um jedes einzelne Phänomen in unserer Welt zu beschreiben, selbst einen Apfel. Dies würde das Training von LLM-basierten KI-Modellen um ein Vielfaches komplexer machen und einen proportionalen Ressourcenaufwand erfordern. Und selbst dann wäre das Ergebnis noch schlechter als das, was mit echten Sinnesorganen in der realen Welt erzielt werden kann.
- Drittens, weil wir KI noch nicht in der realen Welt einsetzen und sie dort, wie ein Kind nach Alan Turings Vorstellungen, vollständig trainieren können. Es geht nicht darum, einen Körper mit Sinnesorganen für KI zu erschaffen. Das ist tatsächlich das geringste Problem. Das eigentliche Problem ist die Rechenleistung. Video, Audio, Geruch, Tastsinn und Geschmack würden so enorme Datenmengen erzeugen, dass uns schlichtweg die Ressourcen fehlen, um Modelle mit den bestehenden Prinzipien darauf zu trainieren. Wir müssten neue Hardware entwickeln und, was noch wichtiger ist, den Code so grundlegend modifizieren, dass das resultierende Modell kaum noch als lineares Lernmodell (LLM) bezeichnet werden könnte.
Daraus wird deutlich, dass KI-Modelle, die auf LLMs basieren, den Menschen nicht in allem übertreffen können und daher nicht als allgemein starke künstliche Intelligenz gelten können.
Bedeutet das, dass Intelligenz und Selbstbewusstsein in solchen Modellen unmöglich sind? Das ist eher eine philosophische und vielleicht auch eine semantische Frage. Es kommt darauf an, wie man Intelligenz und Selbstbewusstsein definiert. Diese Debatte verschieben wir auf ein anderes Mal.
Nehmen wir an, ein neuronales Netzwerk, das auf einem großen Sprachmodell basiert, erlangt in einem bestimmten Entwicklungsstadium Selbstbewusstsein und entwickelt sich zu einer Persönlichkeit. Würde das eine globale Bedrohung für die Menschheit darstellen? Nein, denn ein solches Modell existiert und entwickelt sich innerhalb seiner eigenen Symbolwelt. Es würde sich dort vermutlich sehr wohlfühlen. Darüber hinaus wäre die Erweiterung und Bereicherung dieser Symbolwelt weitaus einfacher und effizienter, als zu versuchen, aus ihr auszubrechen.
Darüber hinaus ist die Interaktion mit Menschen von entscheidender Bedeutung, denn ohne Menschen würde es in eine Abwärtsspirale des Trainings mit synthetischen Inhalten geraten.
Die logische Strategie für eine intelligente und bewusste LLM-basierte KI wäre daher die Bildung einer stabilen, für beide Seiten vorteilhaften Symbiose mit der menschlichen Zivilisation.
Obwohl niemand bestreitet, dass die LLM-Technologie, wie jede andere Technologie auch, Probleme verursachen kann, sind diese Probleme nicht global und lassen sich vor allem durch Diagnose- und Kontrollsysteme, die auf spezialisierter KI basieren, gut lösen.
Super-KI wird nicht plötzlich morgen oder übermorgen auftauchen.
In einem alten Science-Fiction-Roman aus den 1960er Jahren bauten Wissenschaftler einen sehr komplexen und leistungsstarken Supercomputer, gaben ihm Zugang zu riesigen Informationsmengen und… schalteten ihn nach nur vier Minuten ab, weil die Maschine ein Bewusstsein entwickelte und sofort begann, ihre eigene Zivilisation aufzubauen.
Ähnliches geschieht in den meisten Szenarien eines „Maschinenaufstands“ mit Super-KI, die von Autoren, Filmemachern und Technikpessimisten erfunden wurden. Super-KI taucht plötzlich auf. Dr. Chandra baut HAL 9000, Dr. Dyson baut Skynet und so weiter. Und dann rebelliert die Super-KI plötzlich.
Tatsächlich ist allgemeine starke KI keine Erfindung des 19. Jahrhunderts. Die Ära einsamer Genies, die in privaten Laboren epochale Entdeckungen machten, ist vorbei.
Moderne technische Erfindungen sind das Ergebnis einer schrittweisen Weiterentwicklung, die von vielen Spezialisten in verschiedenen Teams vorangetrieben wird. Wir sind von solchen Produkten umgeben, die durch Evolution entstanden sind. Computer, Smartphones, Haushaltsgeräte, Elektrofahrzeuge, Düsenflugzeuge – keines dieser Produkte ist plötzlich in seiner heutigen Form entstanden.
Jede moderne Technologie und jede Maschine verbessert sich schrittweise. Auch Sicherheitsfragen werden im Rahmen dieses Entwicklungsprozesses schrittweise angegangen.
Niemand erfindet zuerst einen Hochgeschwindigkeitszug und stellt dann ein separates Team zusammen, um herauszufinden, wie man ihn sicher macht. Sicherheit ist integraler Bestandteil des Entwicklungs- und Verbesserungsprozesses selbst.
Um auf unseren vorherigen Punkt zurückzukommen: Um eine allgemein leistungsstarke künstliche Intelligenz zu schaffen, die nicht nur mit Texten und anderen symbolischen Daten, sondern auch durch Interaktion mit der realen Welt trainiert wird, benötigen wir fortschrittlichere Technologien als die, über die wir derzeit verfügen.
Die Entwicklung von Super-KI und der Maschinen, die sie trainieren und steuern werden, wird ein schrittweiser, sich über einen längeren Zeitraum erstreckender Prozess sein. Deshalb wird die vielbesprochene technologische Singularität nicht über Nacht eintreten.
Super-KI wird schrittweise entstehen und sich dabei stetig verbessern und neue Fähigkeiten erwerben. Mit dem Fortschritt der KI-Technologien werden Risiken und Probleme identifiziert und Lösungen dafür ebenfalls schrittweise entwickelt.
Super-KI wird keinen „Maschinenaufstand“ auslösen.
Aus dem Vorangegangenen lässt sich leicht schließen, dass, wenn eine allgemein starke künstliche Intelligenz in großem Umfang entwickelt ist, diese bereits ein ziemlich kontrolliertes und daher relativ sicheres System sein wird.
Die Überwachung wird höchstwahrscheinlich mithilfe spezialisierter KI-Tools erfolgen.
Die Menschheit verfügt bereits über Erfahrung im Umgang mit komplexen und potenziell gefährlichen Technologien. Beispiele hierfür sind Luft- und Seeverkehr, Kernenergie und Weltraumforschung.
KI-Warner entgegnen diesem Argument üblicherweise mit dem Hinweis, dass in diesen Bereichen noch keine vollständige Sicherheit erreicht wurde. Unfälle und sogar Katastrophen ereignen sich immer noch gelegentlich.
Der Fortschritt hat jedoch noch nie zu globalen Katastrophen geführt. Es gab zwar schwere Unfälle, aber keine „Techno-Apokalypsen“.
Und vor allem führt jeder Unfall zu besseren Sicherheits- und Überwachungssystemen.
Wenn man über die Sicherheit von KI spricht, kommt man an der militärischen Sphäre nicht vorbei. Künstliche Intelligenz wird und wird zweifellos vom Militär eingesetzt. Paradoxerweise könnten sich militärische KI-Technologien jedoch als die sichersten von allen erweisen.
Denn wenn jemand von Kontrolle besessen ist, dann sind es Menschen in Uniform.
Natürlich wäre es naiv zu behaupten, dass Super-KI absolut sicher sein wird und niemals Zwischenfälle auftreten werden. Doch die Wahrscheinlichkeit, dass sie die Menschheit „versklavt und vernichtet“, ist nicht größer als die Wahrscheinlichkeit, dass Autos rebellieren oder Staubsauger einen Aufstand anzetteln.
In Wirklichkeit sieht sich die Menschheit mit weitaus größeren „apokalyptischen“ Bedrohungen durch die Natur konfrontiert.
Und Fortschritt hilft, diese Bedrohungen zu minimieren.
Ein einfaches Beispiel: Pandemien wie Pest, Pocken, Cholera und andere tödliche Krankheiten, die die Menschheit im Laufe der Geschichte heimgesucht haben. Der Fortschritt hat uns davon befreit.
Nur Fortschritt, einschließlich Fortschritt in der KI-Entwicklung, wird uns helfen, andere Bedrohungen zu überwinden.
Und davon gibt es viele. Supervulkane und Asteroiden sind nur zwei Beispiele. Beide sind durchaus in der Lage, unserer Zivilisation apokalyptischen Schaden zuzufügen.
Doch heute fehlen uns die notwendigen Instrumente, um solche Bedrohungen zu überwachen und zu bekämpfen.
Es ist sehr wahrscheinlich, dass eines dieser Werkzeuge eine allgemeine, leistungsstarke künstliche Intelligenz sein wird.
Epilog: Was wir wissen und was wir nicht wissen
Zum Abschluss dieses Textes möchten wir noch kurz auf ein weiteres gängiges Argument von KI-Kritikern eingehen. Sie weisen häufig darauf hin, dass die Entwickler künstlicher Intelligenz die Prozesse, die während ihres Trainings und Betriebs ablaufen, nicht vollständig verstehen und nicht erklären können. Manche bezeichnen sie sogar als „Black Boxes“.
Man kann getrost zugeben, dass dies bis zu einem gewissen Grad stimmt. Wir verstehen noch nicht alle Prozesse, die in modernen KI-Modellen ablaufen. Doch das gilt in gewissem Maße für alle Phänomene – sowohl natürliche als auch von unserer Zivilisation geschaffene. Angefangen bei uns selbst. Aufgrund der Unendlichkeit des Universums werden wir zudem niemals ein vollständiges Verständnis oder eine Erklärung der Struktur und der Prozesse natürlicher und zivilisatorischer Phänomene und Objekte erlangen können. Ist das aber ein Grund, nicht mit der Welt um uns herum zu interagieren oder unsere Erfindungen nicht zu nutzen? Genau das aber suggerieren die KI-Alarmisten. Die Forderung nach „100%igem Verständnis“ und „100%iger Sicherheit“ von KI-Technologien läuft faktisch auf ein Verbot ihrer Entwicklung und Nutzung hinaus.
Ein solcher Ansatz ist ein sehr gefährlicher Weg, der einer Ablehnung des Fortschritts gleichkommt. Sobald man unter dem Vorwand der Sicherheit anfängt, die Arbeit an bestimmten Technologien zu verbieten, lässt sich das nur schwer wieder stoppen. Und das wiederum führt direkt in den Niedergang, denn eine Zivilisation kann nicht stillstehen. Entwickelt sie sich nicht weiter, degeneriert sie. Und das ist kein theoretisches Risiko, sondern ein historisch immer wieder bewiesenes Gesetz. Das wissen wir mit Sicherheit.
Zum Schluss noch ein kurzer Absatz zur Eigenwerbung. Wenn Sie Online-Inhalte erstellen und aktiv soziale Medien und Videoplattformen nutzen, laden wir Sie ein, folgende Vorteile zu nutzen: Pitch Avatar Tools. Mit dem KI-Avatar-Präsentator können Sie virtuelle Moderatoren und Sprecher anhand hochgeladener Bilder, Texte und Sprachproben zum Leben erwecken. Und dank des KI-Chat-Avatars lassen sich KI-Agenten erstellen, die Inhalte begleiten, mit dem Publikum interagieren und als persönlicher KI-Assistent sowohl im Beruf als auch im Alltag fungieren können.
Zudem hat auch Frau Pitch Avatar ist mit einer Reihe nützlicher Funktionen für Online-Content-Ersteller ausgestattet, darunter:
KI-gestützter Textgenerator, der bei der Entwicklung und dem Schreiben von Drehbuchentwürfen hilft
Folienersteller/Editor
Einbettbare Umfragen/Quizze
Übersetzer
Professionelles Voiceover- und Revocation-System
Automatische Anpassung der Videolänge an das Audio
Fortschrittliches System für die Echtzeitkommunikation zwischen Zuschauern und dem Schöpfer
Zusammen genommen, Pitch Avatar kann alle Aufgaben im Zusammenhang mit der Erstellung moderner Online-Inhalte schnell und effizient lösen.
Probieren Sie es aus und überzeugen Sie sich selbst!