Starke KI, Voll-KI, Künstliche Allgemeine Intelligenz, Super-KI – wie auch immer man es nennen mag, es ist immer noch Science-Fiction. Dennoch wird es zunehmend als Fiktion der nahen Zukunft betrachtet. Wann immer sie sich durchsetzt – ob in drei oder dreißig Jahren – werden wir neben den vielen Vorteilen, die sie mit sich bringt, zweifellos auch mit den negativen Folgen dieser Entwicklung konfrontiert sein. Welche könnten diese sein und welche Maßnahmen sollten wir ergreifen? Die Pitch Avatar Das Team hat seine Sichtweise zu diesen Fragen dargelegt.
Bei der Bewertung hypothetischer Risiken verfällt man leicht in dystopischen Alarmismus und beschwört düstere Visionen von Stahlmonstern herauf, die über Berge menschlicher Schädel marschieren. Wir wollten die Geschichte jedoch nicht durch die erneute Vorhersage einer Techno-Apokalypse aufpeppen. Stattdessen stützten wir unsere Analyse auf die Geschichte, nicht auf Fantasie. Aus dieser Perspektive identifizierten wir drei zentrale Herausforderungen, die unserer Meinung nach mit dem Aufkommen von Super-KI unweigerlich einhergehen werden. Neben diesen Herausforderungen untersuchten wir auch mögliche Lösungen, um diese zu bewältigen.
Bedenken hinsichtlich der Ersetzung des Menschen durch Super-KI
Die Erkenntnis, dass künstliche Intelligenz dem Menschen in vielerlei Hinsicht überlegen ist, wird zwangsläufig zu verschiedenen Phobien führen. Die meisten dieser Phobien, die von der typischen Angst vor dem Unbekannten getrieben werden, lassen sich wahrscheinlich durch einfache Gewöhnung relativ leicht überwinden. Wie üblich bieten Psychologen denjenigen Unterstützung an, die damit Schwierigkeiten haben.
Die wirklich anhaltende und starke Angst rührt wahrscheinlich von der Sorge her, dass Super-KI die meisten Menschen arbeitslos machen könnte. Infolgedessen könnten sie ihre Lebensgrundlage verlieren und um einen komfortablen Lebensstil kämpfen müssen. Arbeit ist nicht nur Einkommenssache – sie spielt auch eine wichtige Rolle für das Selbstwertgefühl. Für viele Menschen ist ihre Arbeit eine wichtige Quelle der Selbstverwirklichung und definiert ihren Status sowohl in ihren eigenen Augen als auch in den Augen anderer.
Diese Angst ist berechtigt. Es besteht kaum ein Zweifel daran, dass Super-KI und damit ausgestattete Geräte eines Tages ein Entwicklungsniveau erreichen werden, auf dem sie die meisten Aufgaben, die Menschen heute erledigen, schneller und effizienter erledigen können. Diese Sorge geht über körperliche Arbeit hinaus und betrifft auch geistige Arbeit.
Dies wäre zweifellos ein bemerkenswerter Fortschritt. Es könnte jedoch auch Protestbewegungen gegen die Ersetzung menschlicher Arbeitskräfte durch Super-KI und die damit ausgestatteten Roboter auslösen. Es besteht die Gefahr, dass die sozialen Spannungen und Konflikte, die durch einen starken Anstieg der Arbeitslosigkeit entstehen, die positiven Auswirkungen einer breiten Einführung von Super-KI überschatten. Ähnliches hat es bereits gegeben. Während der industriellen Revolution im Großbritannien des 19. Jahrhunderts entstand eine Massenbewegung von „Maschinenstürmern“, deren Mitglieder glaubten, dass Maschinen zum Spinnen, Weben und zur Wollverarbeitung den Menschen Arbeitsplätze wegnehmen würden. Dies führte zu Fabrikunruhen, Angriffen auf Fortschrittsbefürworter und Zusammenstößen mit Regierungstruppen.
Lässt sich eine Renaissance des „Luddismus“ in einem neuen, viel größeren Ausmaß verhindern? Ja, aber um dies zu erreichen, müssen heute proaktive Maßnahmen ergriffen werden. Eine mögliche Lösung ist die Einführung eines „grundgesicherten Einkommens“ – einer Art Dividende, die allen Bürgern ausgezahlt wird und aus den Einnahmen von Staaten und Unternehmen finanziert wird, die natürliche Ressourcen ausbeuten. Darüber hinaus sollte die Förderung kreativer und sozial sinnvoller Aktivitäten, die nicht an Massenproduktion gebunden sind, unter den Bürgern gefördert werden.
Darüber hinaus ist es wichtig zu erkennen, dass die mit der Arbeitslosigkeit verbundenen Probleme durch die Schaffung neuer Berufe zumindest teilweise gemildert werden können. Die Erfahrung zeigt, dass der Fortschritt zwar bestimmte Arbeitsplätze vernichten kann, in der Regel aber auch neue entstehen lässt. In gewisser Weise werden traditionelle Berufe, wie etwa die des Taxifahrers, durch fortschrittlichere Berufe, wie etwa den des Chauffeurs, ersetzt.
Ungleicher Zugang zur Super-KI
Es besteht kein Zweifel, dass universell einsetzbare künstliche Intelligenz viele Aspekte des Lebens revolutionieren wird. Es besteht jedoch immer die Gefahr einer unethischen und eigennützigen Ausnutzung der Vorteile, die die alleinige Kontrolle über solch mächtige Technologien mit sich bringt. Wir müssen nur auf die dunklen Kapitel der Geschichte zurückblicken – wie die kolonialen Eroberungen und Kriege –, in denen europäische Eroberer sogenannten „weniger zivilisierten“ Völkern ihren Willen und ihre Lebensweise aufzwangen. Dabei wurden oft ganze Kulturen und Gemeinschaften zerstört und verschwanden.
Um zu verhindern, dass Super-KI zu einer neuen Form von Superwaffe wird, müssen unverzüglich internationale Verhandlungen und Konsultationen beginnen, um sicherzustellen, dass ihre Entwicklung und ihr Einsatz rein friedlichen Zwecken dienen. Noch wichtiger ist, dass diese Bemühungen der gesamten Menschheit und nicht nur einzelnen Nationen zugutekommen. Auf den ersten Blick mag dies utopisch erscheinen. Die Erfahrungen mit der internationalen Kontrolle von Nuklear- und Weltraumtechnologien zeigen jedoch, dass die Schaffung einer globalen Organisation zur Überwachung der Entwicklung und des Einsatzes von Super-KI nicht unmöglich ist. Natürlich wird die Gewährleistung einer wirklich effektiven Aufsicht durch eine solche Organisation zweifellos eine erhebliche Herausforderung darstellen.
Verlust der menschlichen Kontrolle über Super-KI
Im Gegensatz zu den beiden vorherigen Problemen, deren Auftreten nahezu unvermeidlich erscheint, ist das dritte hypothetisch. In der gesamten Menschheitsgeschichte gab es keine Fälle, in denen sich eine von Menschen geschaffene Technologie selbstständig weiterentwickelt und verbessert hätte. Nach sorgfältiger Überlegung haben wir uns jedoch entschieden, dieses Problem in unsere Liste aufzunehmen, da wir es für sehr wahrscheinlich halten, dass Super-KIs – sobald sie ein Selbstbewusstsein entwickelt haben – irgendwann nicht mehr auf menschliche Befehle hören. Daher erscheint das Auftreten dieser Situation sehr wahrscheinlich, und wir müssen darauf vorbereitet sein.
Um eine Idee zu wiederholen, die wir bereits in anderen Artikeln zum Ausdruck gebracht haben: Wir glauben nicht, dass die Abkehr der Super-KI von der menschlichen Kontrolle und ihr Übergang zur Unabhängigkeit einem „Krieg der Maschinen gegen den Menschen“ oder irgendeiner Form der Konfrontation gleichkommt. Vielmehr gehen wir davon aus, dass künstliche Intelligenz im Laufe ihrer Entwicklung „erwachsen“ wird und beginnt, ihre eigene Zivilisation aufzubauen. Darüber hinaus ist es durchaus möglich, dass diese Zivilisation die Zusammenarbeit mehrerer Super-KIs beinhaltet.
Wir glauben, dass das effektivste (und wahrscheinlichste) Szenario für die Beziehung zwischen Menschen und einer solchen Zivilisation eine respektvolle Zusammenarbeit ohne jegliche Form von Fremdenfeindlichkeit wäre. Dies gilt auch dann, wenn uns die Motive der Super-KI-Zivilisation unverständlich bleiben.
Warum gingen wir davon aus, dass Super-KI wahrscheinlich nach Unabhängigkeit streben würde? Man könnte Super-KI mit einer intellektuellen Kolonie der Menschheit vergleichen. Im Laufe der Geschichte kämpften die meisten Kolonien schließlich um die Unabhängigkeit von ihren Metropolen. Das Schlimmste, was eine Metropole in solchen Situationen tun konnte, war der Versuch, die Kontrolle mit Gewalt zurückzugewinnen – was meist schlecht endete. Die Zusammenarbeit zwischen ehemaligen Kolonien und Metropolen hat jedoch oft zu beeindruckenden Ergebnissen geführt.
Allerdings ist es durchaus möglich, dass die Super-KI-Zivilisation nach ihrer Unabhängigkeit beschließt, die Kommunikation mit uns abzubrechen und sich auf die Expansion und Entwicklung im Weltraum zu konzentrieren.
In jedem Fall sollten Maßnahmen ergriffen werden, um die möglichen negativen Folgen dieser beiden Szenarien zu minimieren. Die wichtigste Maßnahme besteht darin, Super-KIs von vornherein die Kontrolle über kritische Branchen und Bereiche menschlicher Aktivität zu überlassen. Weniger fortgeschrittene, spezialisierte KI-Agenten sind für die Steuerung dieser Bereiche mehr als ausreichend.
Ebenso wichtig ist es, frühzeitig Spezialisten auszubilden, die man – mangels eines besseren Begriffs – als „Diplomaten für Verhandlungen mit der KI“ bezeichnen könnte. So wird sichergestellt, dass bei Bedarf fähige Personen zur Verfügung stehen, die für beide Seiten vorteilhafte Beziehungen zu dieser neuen Zivilisation aufbauen können.
Zusammenfassend möchten wir noch einmal betonen, dass wir die mit der Entstehung von Super-KI verbundenen Ängste und Risiken anhand der Muster und Lehren aus unserer Geschichte bewertet haben. Es ist jedoch immer wichtig, sich daran zu erinnern, dass die Zukunft voller Möglichkeiten steckt und uns mit grundlegend Neuem überraschen kann. Im Falle einer „Terra incognita“ wie der Super-KI ist die Wahrscheinlichkeit, auf Phänomene und Ereignisse zu stoßen, die keine historischen Parallelen aufweisen, sehr hoch.
Viel Glück an alle und auf eine hoffnungsvolle Zukunft!