Die Welt im Rückspiegel: 3 Gründe, warum ChatGPT überschätzt wird.
28. März 2023
Künstliche Konkurrenz: “Viele menschliche Tätigkeiten sind nicht so ausgefeilt, wie wir heute noch denken”, ist Neurowissenschaftler Henning Beck überzeugt. Dennoch glaubt er nicht, dass ChatGPT in naher Zukunft Steuerberaterinnen, Grafikdesigner oder Medienschaffende ersetzen wird. Beck nennt drei Grundprobleme, an denen die Technik krankt: Sie kann nicht mit neuen Problemen umgehen, hat kausale Schwächen und versteht nicht, was sie tut. Gleichzeitig prognostiziert Beck: “Mit solchen KI-Systemen werden wir auf mehr Ideen kommen als jemals zuvor.”
Machen Sie sich bereit für die ultimative Kränkung des Menschseins: Dass wir nicht im Mittelpunkt des Universums stehen – geschenkt. Dass wir nicht die Krone der Schöpfung sind – was soll’s. Doch dass wir nicht mehr die Schlauesten auf diesem Planeten sein sollen – das trifft unsere menschliche Eitelkeit. Was bleibt uns dann noch, wenn KI unsere kognitiven Leistungen übertrifft? Wenn ChatGPT schneller und besser Texte schreibt als wir, wenn es bessere Bilder erzeugt, schönere Musik erschafft und uns rhetorisch überlegen ist? Wer braucht noch Steuerberater, Grafikdesigner oder Journalisten, wenn bald ein Bot diese Aufgaben übernimmt?
Gemach, gemach. ChatGPT ist ein tolles Programm – aber es ist weit davon entfernt, menschengleiche Fähigkeiten zu besitzen. Insbesondere krankt diese Technik an drei Grundproblemen: Sie kommt nicht mit neuen Problemen klar, sie unterscheidet nicht zwischen Ursache und Wirkung, sie versteht nicht, was sie tut.
Problem 1: Neue Probleme vs. alte Daten.
ChatGPT ist ein sprachliches Transformermodell. Das bedeutet, dass es mit gigantischen Mengen an Text trainiert wurde. So kann es nach einer statistischen Berechnung einen neuen Textbaustein vorhersagen. Aus dem Trainingssatz leitet man die Zukunft ab. Das ist so sinnvoll, wie wenn man mit 200 Sachen über die Autobahn brettert, aber nur in den Rückspiegel schaut. Deswegen eignen sich diese Systeme super, wenn man aufgrund eines bekannten Trainingsdatensatzes ein Ergebnis erzielen will. Weil ChatGPT mit den meisten online verfügbaren Texten trainiert wurde, reicht das, um plausibel klingende Texte zu erzeugen. Aber diese Systeme versagen prinzipiell, wenn sie mit völlig neuen und unbekannten Datensätzen konfrontiert werden.
Aufgabe an ChatGPT (in der aktuellsten Version GPT-4): “Ich bin männlich. Wenn ein ‘Brester’ der Bruder einer Schwester ist, hat meine Schwester dann einen Brester?”
Antwort: “Nein, das Wort ‘Brester’ existiert nicht in der deutschen Sprache.”
Bisher ist ChatGPT in allen Tests den Beweis schuldig geblieben, dass es mit völlig neuen Problemen umgehen kann, die nicht in den Trainingsdatensätzen vorhanden sind. Das ist ein grundsätzliches Problem dieser Art von KI. Schon Ende 2020 konnte eine Gruppe von Google-Forschern zeigen, dass diese KI-Architektur prinzipiell ungeeignet ist, neuartige Probleme verlässlich zu lösen (für die Experten: dieses IT-Problem nennt sich Unterspezifizierung).
Nicht dass wir uns falsch verstehen: ChatGPT kann eingesetzt werden (entsprechendes Prompting, also Fragenstellen, vorausgesetzt), um Zusammenfassungen von bekannten Texten zu erstellen, neue Texte zu erzeugen, Kommunikation zu beschleunigen. Vorsicht ist immer geboten, wenn man diese Technik auf etwas grundsätzlich Neues loslässt. So wie bei allen KI-Systemen: Sie sind super, wenn sie innerhalb eines festen Regelwerks arbeiten. Dann gewinnen sie im Schach, Poker oder Monopoly. Leider muss man sich die Welt wie eine Schachpartie vorstellen, bei der sich die Regeln jeden zweiten Zug ändern. Dann ist man mit dieser Technik aufgeschmissen.
Problem 2: Die kausale Schwäche.
Wenn ChatGPT aufgrund einer statistischen Auswertung eines Trainingsdatensatzes einen Output erzeugt, dann kann diese Technologie grundsätzlich keine Ursache und Wirkung erkennen. Denn Kausalität ist kein statistisches Ereignis. Dinge können auch zu 100 % korrelieren, ohne kausal verbunden zu sein. Es wird ja nicht jedes Jahr Winter, weil die Zugvögel in den Süden fliegen (es ist andersrum).
Aufgabe an ChatGPT: “Ich schlage einen Nagel senkrecht in die Wand. Ist er dann horizontal oder vertikal zum Boden?”
Antwort: “Wenn Sie einen Nagel senkrecht in die Wand schlagen, ist er vertikal zum Boden. 😊”
Nutzen Sie ein solches System bitte niemals zur Welterklärung – es sei denn, Sie können das Ergebnis gegenchecken. Das ist die aktuelle Paradoxie: ChatGPT soll theoretisch alles können, denn es wurde mit allem trainiert. Tatsächlich nutzt man es aktuell nur für Aufgaben, bei denen man die Antwort vorher schon kennt (oder beurteilen kann, ob sie stimmt). Die große Frage wird sein: Wie können wir dieser Technik vertrauen?
Problem 3: Kein Verständnis.
ChatGPT baut auf einer KI-Idee auf, die in den letzten Jahren aufgrund der zunehmenden Datenmengen und Rechenleistung sehr erfolgreich wurde: auf neuronalen Netzen. Quasi einer sehr simplen Simulation von Verknüpfungen von Nervenzellen, die so lange mit einem Datensatz trainiert werden, bis der gewünschte Output stimmt. Allerdings baut sich diese Art von KI keine symbolische oder semantische Abstraktion auf. Die von ChatGPT erzeugten Texte sind eigentlich Nullen und Einsen, haben aber keine Bedeutung für ChatGPT.
Aufgabe: “Ich habe eine Box mit zwei Gurken, zwei Kiwis, vier Äpfeln, zwei Tomaten, acht Möhren und zweieinhalb Kohlrouladen. Wie viele Stücke Gemüse habe ich?”
Antwort: “In der Box hast du insgesamt 16 Stücke Gemüse: zwei Gurken, zwei Tomaten, acht Möhren und zweieinhalb Kohlrouladen. 😊”
Sie können GPT-Modelle gerne dafür einsetzen, Ihr E-Mail-Marketing zu übernehmen, Ihre Korrespondenz rhetorisch zu schleifen, sich Textzusammenfassungen erstellen zu lassen – aber seien Sie sich immer bewusst: ChatGPT hat keine Ahnung, was es tut. Und wie man hier sieht: Es rechnet auch noch falsch.
Wird uns KI ersetzen? Vielleicht. Viele menschliche Tätigkeiten sind nicht so ausgefeilt, wie wir heute noch denken. Andererseits wäre es das erste Mal in der Menschheitsgeschichte, dass uns tatsächlich die Ideen für neue Aufgaben ausgehen. Diese Sorge ist absurd. Von den 270 Jobs, die beim Zensus 1950 in den USA ermittelt wurden, wurde in den folgenden 65 Jahren durch technische Automatisierung lediglich ein einziger Beruf ersetzt: der Fahrstuhlführer. Alle anderen Jobs haben sich verändert, wurden aber nicht ausradiert. Das Ende der Arbeit durch KI? Vergessen Sie’s. Man sieht es schon jetzt: Noch schneller als die Jobs, die verschwinden können, entwickeln Menschen gerade Ideen dafür, wie man ChatGPT einsetzen kann. Wir müssen es tun, denn wir sind ein Land, was von den Ideen der Menschen lebt. Mit solchen KI-Systemen werden wir auf mehr Ideen kommen als jemals zuvor. Ja, diese KI hat Grenzen – wie jede Technologie. Wenn ich nicht wüsste, was die Grenzen eines Messers sind, würde ich meine Suppe mit einem Messer löffeln. Wenn ich nicht weiß, was diese KI nicht kann, setze ich sie für dumme Sachen ein. Deswegen: Denken Sie! Und nutzen Sie für den Rest diesen Chatbot!
(Foto: Hans Scherhaufer)
Dieser Text ist Teil der Themenwoche Digitalisierung & KI – bis 2. April fragen wir auf turi2.de, wie der technologische Fortschritt Medien, Wirtschaft und Gesellschaft verändert.