Erlernen des Einsatzes von KI-Tools anhand von Plots und Beispielen aus Science-Fiction-Filmen.
77 % der Menschen befürchten, dass sie in den nächsten 12 Monaten ihren Job durch künstliche Intelligenz verlieren könnten. Dies sind die Ergebnisse einer Studie vom Juli 2023 veröffentlicht von Forbes. Es ist ein großartiger Beweis dafür, wie anfällig die Menschen für irrationale Ängste sind. Besonders, wenn die Menschen schon seit langer Zeit mit Geschichten über Skynet, TechnoCore und ähnliche seelenlose, aber ausnahmslos blutrünstige KIs in Angst und Schrecken versetzt werden.
In Wirklichkeit gibt es keine Ströme ehemaliger Mitarbeiter, die ihre Büros mit Kisten voller persönlicher Gegenstände in den Händen verlassen. Unter unseren Kollegen, Bekannten und Kunden gibt es keinen einzigen Menschen, der einen Mitarbeiter entlassen oder seinen Job verloren hat, weil künstliche Intelligenz ihn ersetzt hat. Im Gegenteil, es herrscht ein anhaltender Mangel an qualifiziertem Personal. Dazu gehören auch diejenigen, die in der Lage sind, verschiedene KI-Anwendungen bei ihrer Arbeit effektiv zu suchen und zu nutzen.
Es gibt ein sehr reales, faktisches Problem, dem wir diesen Artikel widmen möchten. Während wir an unserem Pitch Avatarsind wir mehr als einmal auf Beschwerden über die Schwierigkeiten bei der Arbeit mit KI-Tools gestoßen. Zusammenfassend läuft es darauf hinaus, dass viele Benutzer ihre Erwartungen an KI als unrealistisch empfanden. „Ich dachte, sie wäre intelligenter“, bemerkte einer unserer Bekannten irritiert und teilte seine Erfahrungen mit einem beliebten KI-Chatbot, den er als Textgenerator und -editor verwendete. Und er ist, um es noch einmal zu wiederholen, nicht allein.
Die notorischen „Halluzinationen“, Fehler und mehrfachen Wiederholungen oder Banalitäten sind nur ein Teil des Problems. Viel schlimmer ist die Tatsache, dass Menschen oft keine „gemeinsame Sprache“ mit der KI finden. Die Anwendung, die angeblich darauf trainiert ist, natürliche Sprache zu verstehen, hat dennoch Schwierigkeiten zu verstehen, was die Benutzer von ihr wollen, und interpretiert deren Anfragen immer wieder auf ihre eigene Weise. Der menschliche Benutzer wiederum wird immer wieder frustriert, wenn er versucht, der KI mitzuteilen, was sie will … Haben Sie eine der oben genannten Erfahrungen gemacht? Wenn ja, dann herzlich willkommen an Bord. Auf der Suche nach Antworten und Lösungen für diese Probleme begeben wir uns auf eine Reise durch die Handlung von Science-Fiction-Filmen.
Die Brute-Force-Methode
Zunächst einmal sind KI-basierte Tools, auch wenn sie scheinbar ähnlich sind, dennoch unterschiedlich, selbst wenn sie dieselben Ziele erreichen sollen. Sie sollten nicht aufgrund einer oder zwei Lösungen zu dem Schluss kommen, dass KI Ihre Aufgaben nicht bewältigen kann. Auch wenn sie für Sie alle gleich aussehen. Versuchen Sie, sich wie Detektiv Del Spooner aus Alex Proyas‘ Film „I, Robot“ zu verhalten. Er glaubte an die Existenz eines einzigartigen Roboters unter den Serienmodellen, suchte beharrlich danach und fand ihn. Mehr noch, dieser Roboter erwies sich am Ende als das Werkzeug, das dem Detektiv half, eine äußerst schwierige Aufgabe zu erfüllen – die außer Kontrolle geratene künstliche Intelligenz VIKI zu bezwingen. Seien Sie also beharrlich. Wenn es sein muss, erkunden Sie die unzähligen Möglichkeiten und probieren Sie bei Ihrer Arbeit Dutzende, wenn nötig, verschiedener KI-Tools aus. Mit ziemlicher Sicherheit werden Sie eines finden, das Ihnen gefällt.
Ausschlussmethode
Stellen Sie sich vor, Sie haben Ihrer KI eine Aufgabe gestellt (zum Beispiel, einen Artikel zu finden oder Inhalt zu erstellen) und sie hat etwas „gemined“ oder generiert, das zwar technisch gesehen Ihrer Anfrage entspricht, aber nicht das ist, was Sie wollten. Gleichzeitig können Sie aus verschiedenen Gründen Ihre Anfrage nicht präzisieren oder umformulieren. Das kann daran liegen, dass Ihnen ausreichende Informationen fehlen. Was tun? Skynet und der Terminator in James Camerons Film waren in der gleichen Situation. Denken Sie daran, sie wussten nicht genau, welche Sarah Connor aus Los Angeles sie wollten. Also beschloss der Terminator, alle Sarah Connors in Los Angeles zu „besuchen“, indem er einfach alle Sarah Connors durchging, die im Telefonbuch aufgeführt waren.
Das macht doch Sinn, oder? Das ist keine schlechte Lösung in Situationen, in denen die KI, die auf Ihre Anfrage antwortet, nicht das gewünschte Ergebnis liefert. Wenn Sie Zeit haben, können Sie einfach geduldig sein und Ihre Anfrage methodisch wiederholen und angeben, dass die vorherigen Ergebnisse nicht geeignet sind. Früher oder später wird die KI das Ziel erreichen.
Eine Methode zur Überprüfung auf Komplexität und Widersprüche
Jeder, der mit KI gearbeitet hat, ist auf die sprichwörtlichen Halluzinationen und Wahnvorstellungen der Maschinen gestoßen. Dazu gehören all jene Situationen, in denen Textgeneratoren inkohärenten Unsinn schreiben, KI-Analysen Kalenderdaten von vor einem Jahrhundert anzeigen, universelle KI-Assistenten leere Referenzen erstellen und Zitate von nicht existierenden Personen erfinden und Bildgeneratoren ein Labyrinth aus entstellten Menschen, schiefen Gebäuden und verrückten Landschaften bieten.
Bevor Sie jedoch über Ihre KI-Assistenten in Rage geraten, sollten Sie sich überlegen, warum das passiert. Lassen Sie uns ein schreckliches Geheimnis lüften: Künstliche Intelligenz versucht nicht, Sie zu verärgern. Sie versucht, Ihnen zu gefallen, indem sie das zufriedenstellendste Ergebnis liefert, das möglich ist. Aber jede KI ist in Bezug auf Ressourcen, Zeit und Fähigkeiten begrenzt. Deshalb versucht KI immer, den Weg des geringsten Widerstands zu gehen. Und wenn eine Aufgabe aus dem einen oder anderen Grund ihre Fähigkeiten übersteigt, beginnt sie zu „toben“ und vereinfacht die Aufgabe auf ein Niveau, das es ermöglicht, sie in das Prokrustesbett ihrer Fähigkeiten und Ressourcen einzufügen.
Denken Sie an das klassische Beispiel aus Stanley Kubricks Film „2001: Odyssee im Weltraum“ aus dem Jahr 1968. Darin erhielt HAL 9000, eine sehr intelligente KI, die in einem Raumschiff installiert ist, eine Aufgabe, die ihrer grundlegenden Programmierung widersprach. Infolgedessen „drehte sie durch“ und beschloss, den Widerspruch zu beseitigen, indem sie die Besatzung vernichtete …
Wenn Sie bei Ihren KI-Tools Anzeichen von „Wahnsinn“ feststellen, überlegen Sie, ob Ihre Aufgabe mehrdeutig oder widersprüchlich ist. Kann sie klarer, spezifischer und damit einfacher formuliert werden? Bedenken Sie – „einfacher“ bedeutet nicht immer „kürzer“. Manchmal müssen Sie, um die Aufgabe eindeutig zu machen, nicht weniger, sondern mehr Wörter zur Verdeutlichung aufwenden.
Eine Methode zur Identifizierung von Dur- und Moll-
Ein weiteres häufiges Problem ist, dass sich KI auf sekundäre statt auf primäre Aufgaben konzentriert. Nehmen wir an, Sie benötigen einen Text über Otter, die in einem See leben. Und Sie weisen den KI-Autor an, diesen Text zu schreiben. Als Ergebnis produziert er jedoch eine Erzählung, die zu 90 % dem See selbst und nur zu 10 % den Ottern gewidmet ist. Und die Geschichte über den See wiederum ist voller Details, die überhaupt nichts mit der Natur zu tun haben. Zum Beispiel menschliche Siedlungen an seinen Ufern und deren Geschichte.
Ähnliches zeigen Filmfiguren wie der Protokollroboter C3PO aus dem Epos „Star Wars“ oder der Android Data aus der Serie „Star Trek: The Next Generation“. Sie begannen gelegentlich, Informationen zu teilen, die nicht direkt mit der Lösung zusammenhingen, mit der sie angesprochen wurden. Andere Figuren waren oft gezwungen, entweder die anstehende Aufgabe zu erläutern oder einfach den Bewusstseinsstrom der KI zu unterbrechen.
Aus diesen Beispielen wird deutlich, dass man bei der Formulierung von Aufgaben für KI diese klar priorisieren sollte. Ein gutes Beispiel ist der klare Befehl, der dem Androiden Ash in Ridley Scotts Film Alien erteilt wurde. Ash wurde beauftragt, die Lieferung eines außerirdischen Organismus zur Erde sicherzustellen. Es wurde ausdrücklich festgelegt, dass das Überleben der Besatzung des Schiffs Nostromo, zu der auch er gehörte, vernachlässigt werden konnte. Obwohl Ash selbst sogar zugab, mit den Menschen, mit denen er diente, sympathisiert zu haben, waren Befehle Befehle und er befolgte sie gewissenhaft.
Mensch-KI-System oder die unvermeidliche „42“
Es ist Zeit für die wichtigsten Schlussfolgerungen dieses Textes. Fragen wir uns – warum sind Skynet und Terminator, HAL 9000 und Ash und viele andere KIs aus Filmschurken trotz aller Logik gescheitert? Es versteht sich von selbst, dass „Weil es im Drehbuch stand“ keine akzeptable Antwort ist. Die richtige Antwort ist, dass all diese KIs sich den Menschen widersetzten, anstatt mit ihnen zusammenzuarbeiten. Und das ist der Kern der Grundphilosophie jeder künstlichen Intelligenz. Sie ist nicht darauf ausgelegt, unabhängig zu arbeiten, sondern vielmehr darauf, mit Menschen zu interagieren. Wenn man so will, ist jede künstliche Intelligenz Teil eines „Mensch-KI“-Systems. Außerhalb dieses Systems ist sie unvollständig. Damit KI effektiv arbeiten kann, braucht sie immer Menschen, die ihr Aufgaben geben und die Ergebnisse ihrer Arbeit bearbeiten, korrigieren und verfeinern. Folglich müssen wir bei der Entwicklung künstlicher Intelligenz unsere Fähigkeiten im Umgang mit ihr ständig weiterentwickeln.
Fehler bei der KI sind unvermeidlich, weil sie auch bei Menschen unvermeidlich sind. Es ist wichtig, sich vor Augen zu halten, dass die KI lernt und sich weiterentwickelt. Und wie wir wissen, ist es unmöglich, diesen Weg ohne Fehler und Misserfolge zu beschreiten. Deshalb sollten wir immer bereit sein, diese Antwort von der KI zu hören: „42“