artcount
  • News
  • Zeitschriften
  • themenwochen
  • Köpfe
  • Termine
  • edition
  • podcast
  • werben bei turi2
  • suchen auf turi2
  • FAQ
  • werben bei turi2
  • Team
  • Newsletter
  • themenwochen
  • Köpfe
  • Firmen
  • Jobs
  • Termine
  • Edition
  • podcast
  • turi2.tv
  • turi2 folgen
  • Partner
  • RSS-Feed
  • Datenschutz
  • Impressum

Die Welt im Rückspiegel: 3 Gründe, warum ChatGPT überschätzt wird.

28. März 2023

Künstliche Konkurrenz: “Viele menschliche Tätigkeiten sind nicht so ausgefeilt, wie wir heute noch denken”, ist Neurowissenschaftler Henning Beck überzeugt. Dennoch glaubt er nicht, dass ChatGPT in naher Zukunft Steuerberaterinnen, Grafikdesigner oder Medienschaffende ersetzen wird. Beck nennt drei Grundprobleme, an denen die Technik krankt: Sie kann nicht mit neuen Problemen umgehen, hat kausale Schwächen und versteht nicht, was sie tut. Gleichzeitig prognostiziert Beck: “Mit solchen KI-Systemen werden wir auf mehr Ideen kommen als jemals zuvor.”
 

 
Von Henning Beck
 
Machen Sie sich bereit für die ultimative Kränkung des Menschseins: Dass wir nicht im Mittelpunkt des Universums stehen – geschenkt. Dass wir nicht die Krone der Schöpfung sind – was soll’s. Doch dass wir nicht mehr die Schlauesten auf diesem Planeten sein sollen – das trifft unsere menschliche Eitelkeit. Was bleibt uns dann noch, wenn KI unsere kognitiven Leistungen übertrifft? Wenn ChatGPT schneller und besser Texte schreibt als wir, wenn es bessere Bilder erzeugt, schönere Musik erschafft und uns rhetorisch überlegen ist? Wer braucht noch Steuerberater, Grafikdesigner oder Journalisten, wenn bald ein Bot diese Aufgaben übernimmt?

Gemach, gemach. ChatGPT ist ein tolles Programm – aber es ist weit davon entfernt, menschengleiche Fähigkeiten zu besitzen. Insbesondere krankt diese Technik an drei Grundproblemen: Sie kommt nicht mit neuen Problemen klar, sie unterscheidet nicht zwischen Ursache und Wirkung, sie versteht nicht, was sie tut.

Problem 1: Neue Probleme vs. alte Daten.
ChatGPT ist ein sprachliches Transformermodell. Das bedeutet, dass es mit gigantischen Mengen an Text trainiert wurde. So kann es nach einer statistischen Berechnung einen neuen Textbaustein vorhersagen. Aus dem Trainingssatz leitet man die Zukunft ab. Das ist so sinnvoll, wie wenn man mit 200 Sachen über die Autobahn brettert, aber nur in den Rückspiegel schaut. Deswegen eignen sich diese Systeme super, wenn man aufgrund eines bekannten Trainingsdatensatzes ein Ergebnis erzielen will. Weil ChatGPT mit den meisten online verfügbaren Texten trainiert wurde, reicht das, um plausibel klingende Texte zu erzeugen. Aber diese Systeme versagen prinzipiell, wenn sie mit völlig neuen und unbekannten Datensätzen konfrontiert werden.

Aufgabe an ChatGPT (in der aktuellsten Version GPT-4): “Ich bin männlich. Wenn ein ‘Brester’ der Bruder einer Schwester ist, hat meine Schwester dann einen Brester?”

Antwort: “Nein, das Wort ‘Brester’ existiert nicht in der deutschen Sprache.”

Bisher ist ChatGPT in allen Tests den Beweis schuldig geblieben, dass es mit völlig neuen Problemen umgehen kann, die nicht in den Trainingsdatensätzen vorhanden sind. Das ist ein grundsätzliches Problem dieser Art von KI. Schon Ende 2020 konnte eine Gruppe von Google-Forschern zeigen, dass diese KI-Architektur prinzipiell ungeeignet ist, neuartige Probleme verlässlich zu lösen (für die Experten: dieses IT-Problem nennt sich Unterspezifizierung).
 
Nicht dass wir uns falsch verstehen: ChatGPT kann eingesetzt werden (entsprechendes Prompting, also Fragenstellen, vorausgesetzt), um Zusammenfassungen von bekannten Texten zu erstellen, neue Texte zu erzeugen, Kommunikation zu beschleunigen. Vorsicht ist immer geboten, wenn man diese Technik auf etwas grundsätzlich Neues loslässt. So wie bei allen KI-Systemen: Sie sind super, wenn sie innerhalb eines festen Regelwerks arbeiten. Dann gewinnen sie im Schach, Poker oder Monopoly. Leider muss man sich die Welt wie eine Schachpartie vorstellen, bei der sich die Regeln jeden zweiten Zug ändern. Dann ist man mit dieser Technik aufgeschmissen.
 
Problem 2: Die kausale Schwäche.
Wenn ChatGPT aufgrund einer statistischen Auswertung eines Trainingsdatensatzes einen Output erzeugt, dann kann diese Technologie grundsätzlich keine Ursache und Wirkung erkennen. Denn Kausalität ist kein statistisches Ereignis. Dinge können auch zu 100 % korrelieren, ohne kausal verbunden zu sein. Es wird ja nicht jedes Jahr Winter, weil die Zugvögel in den Süden fliegen (es ist andersrum).

Aufgabe an ChatGPT: “Ich schlage einen Nagel senkrecht in die Wand. Ist er dann horizontal oder vertikal zum Boden?”

Antwort: “Wenn Sie einen Nagel senkrecht in die Wand schlagen, ist er vertikal zum Boden. 😊”
 
Nutzen Sie ein solches System bitte niemals zur Welterklärung – es sei denn, Sie können das Ergebnis gegenchecken. Das ist die aktuelle Paradoxie: ChatGPT soll theoretisch alles können, denn es wurde mit allem trainiert. Tatsächlich nutzt man es aktuell nur für Aufgaben, bei denen man die Antwort vorher schon kennt (oder beurteilen kann, ob sie stimmt). Die große Frage wird sein: Wie können wir dieser Technik vertrauen?

Problem 3: Kein Verständnis.
ChatGPT baut auf einer KI-Idee auf, die in den letzten Jahren aufgrund der zunehmenden Datenmengen und Rechenleistung sehr erfolgreich wurde: auf neuronalen Netzen. Quasi einer sehr simplen Simulation von Verknüpfungen von Nervenzellen, die so lange mit einem Datensatz trainiert werden, bis der gewünschte Output stimmt. Allerdings baut sich diese Art von KI keine symbolische oder semantische Abstraktion auf. Die von ChatGPT erzeugten Texte sind eigentlich Nullen und Einsen, haben aber keine Bedeutung für ChatGPT.

Aufgabe: “Ich habe eine Box mit zwei Gurken, zwei Kiwis, vier Äpfeln, zwei Tomaten, acht Möhren und zweieinhalb Kohlrouladen. Wie viele Stücke Gemüse habe ich?”

Antwort: “In der Box hast du insgesamt 16 Stücke Gemüse: zwei Gurken, zwei Tomaten, acht Möhren und zweieinhalb Kohlrouladen. 😊”

Sie können GPT-Modelle gerne dafür einsetzen, Ihr E-Mail-Marketing zu übernehmen, Ihre Korrespondenz rhetorisch zu schleifen, sich Textzusammenfassungen erstellen zu lassen – aber seien Sie sich immer bewusst: ChatGPT hat keine Ahnung, was es tut. Und wie man hier sieht: Es rechnet auch noch falsch.

Wird uns KI ersetzen? Vielleicht. Viele menschliche Tätigkeiten sind nicht so ausgefeilt, wie wir heute noch denken. Andererseits wäre es das erste Mal in der Menschheitsgeschichte, dass uns tatsächlich die Ideen für neue Aufgaben ausgehen. Diese Sorge ist absurd. Von den 270 Jobs, die beim Zensus 1950 in den USA ermittelt wurden, wurde in den folgenden 65 Jahren durch technische Automatisierung lediglich ein einziger Beruf ersetzt: der Fahrstuhlführer. Alle anderen Jobs haben sich verändert, wurden aber nicht ausradiert. Das Ende der Arbeit durch KI? Vergessen Sie’s. Man sieht es schon jetzt: Noch schneller als die Jobs, die verschwinden können, entwickeln Menschen gerade Ideen dafür, wie man ChatGPT einsetzen kann. Wir müssen es tun, denn wir sind ein Land, was von den Ideen der Menschen lebt. Mit solchen KI-Systemen werden wir auf mehr Ideen kommen als jemals zuvor. Ja, diese KI hat Grenzen – wie jede Technologie. Wenn ich nicht wüsste, was die Grenzen eines Messers sind, würde ich meine Suppe mit einem Messer löffeln. Wenn ich nicht weiß, was diese KI nicht kann, setze ich sie für dumme Sachen ein. Deswegen: Denken Sie! Und nutzen Sie für den Rest diesen Chatbot!
 
(Foto: Hans Scherhaufer)
 
Dieser Text ist Teil der Themenwoche Digitalisierung & KI – bis 2. April fragen wir auf turi2.de, wie der technologische Fortschritt Medien, Wirtschaft und Gesellschaft verändert.

    • Ein bisschen anzünden: Das neue ARD-Format “Klar” ist weiter in der Kritik.

      Als der NDR im April das neue Reportage­magazin “Klar” ankündigte, hieß es, das Format wolle “große Streitfragen aufgreifen, die in der Mitte der Gesellschaft kontrovers diskutiert werden”. Presenterin Julia Ruhs sagte, die Diskussion über Diversität ginge “auch ein...
      weiterlesen
    • Kurz & KNAckig: Westliche Männer erklären die Welt.

      Das Global Media Forum der Deutschen Welle bringt wortwörtlich die Medienwelt zusammen – und besetzt die Diskussionsrunde zur Berichterstattung über Israel und Gaza trotzdem nur mit drei alten weißen Männern aus Deutschland und den USA, kritisiert Steffen Grimberg in unserer Kolumne “Kurz ...
      weiterlesen
    • Sommer, Sonne, Suchtmittel: “Geo Epoche Drogen” in der Blattkritik.

      turi2-Chefredakteur Markus Trantow liest die jüngste Ausgabe des Geschichts­magazins “Geo Epoche”. Seit vor zweieinhalb Jahren die Einstellung des renommierten Magazins drohte, ist er Abonnent des Blattes. In seiner Blatt­kritik im Rahmen unserer Themenwoche Zeitschriften teilt er er...
      weiterlesen
    • “Junge Leute sind für Print verloren” – “Hörzu”-Chefredakteur Christian Hellmann über einen Klassiker, der mit der Zeit geht.

      Im schrumpfenden Printmarkt ist die “Hörzu” immer noch ein Dickschiff und mit über 650.000 verkauften Heften pro Woche die meistverkaufte wöchentlich erscheinende Zeitschrift in Deutschland. 2026 wird die Marke 80 Jahre alt. Geht es nach Chef­redakteur Christian Hellmann, haben P...
      weiterlesen
    • News-KNAcker: Klinikfunk – gute Laune am Krankenbett.

      Seit fast 40 Jahren begleitet ein Radiosender die Patienten eines Wiesbadener Krankenhauses durch den Klinikalltag. Die ehrenamtlichen Moderatoren bringen heitere Momente dorthin, wo sonst Stille herrscht. Julia Rosner hat für unserer Reihe NewsKNAcker, die wir in Kooperation mit der KNA veröffe...
      weiterlesen
    • Print & Podcast: Wie Burda seine “InStyle” in die Gen Z verlängern will.

      Sucht die Gen Z tatsächlich Inspiration im guten alten Zeitschriften-Regal? Elfi Langefeld, Chief Product Officer des Burda-Verlags in München, ist davon überzeugt. Mit einer neuen Line-Extension des Frauenmagazins “InStyle” zielt sie auf die junge Zielgruppe. Wie sich der Verlag daf...
      weiterlesen
    • Der “Sandmännchen”-Effekt: Was passiert, wenn der Kika kein Fernsehkanal mehr ist?

      Wenn es nach dem neuen Medienstaatsvertrag geht, müssen die öffentlich-rechtlichen Sender bis 2033 ihre Spartenkanäle ins Internet überführen. Das gilt auch für Kika, den gemeinsamen Kinderkanal von ARD und ZDF. Medienpädagogen sehen das kritisch, auch weil lineares Programm Familien dabei helfe...
      weiterlesen
    • Kurz & KNAckig: Die perfekte Welle?

      Die Art und Weise, wie die Deutsche Welle ihre neue Intendantin Barbara Massing gekürt hat, ist kaum mehr zeitgemäß, urteilt Jana Ballweber. In ihrer Kolumne “Kurz & KNAckig” kritisiert sie das “Rundfunk-Konklave” und die anschließende Kommunikation der Personalie – s...
      weiterlesen
    • NewsKNAcker: Kick bei Disney – Frauen-Fußball etabliert sich im Fernsehgeschäft.

      Das mediale Interesse an sportlichen Großereignissen ist in Deutschland riesig. Das gilt seit Längerem auch für Fußballturniere der Frauen. Damit das so bleibt, muss aber auch der sportliche Erfolg stimmen, erklärt ARD-Reporter Bernd Schmelzer. Im Gespräch mit Manuel Weis für unsere Reihe NewsK...
      weiterlesen
    • Hauptsache jung: Wie der WDR altgediente Mitarbeiter aussortiert.

      2024 hat der WDR den Beschluss gefasst, freie Mit­arbeitende, die das Renten­alter erreicht haben, partout nicht weiter­beschäftigen zu wollen. “epd medien”-Autor Thomas Gehringer (kleines Bild) sieht “eine Verjüngungs­strategie mit der Brech­stange” u...
      weiterlesen

    Artikel-Navigation

    ← turi2 am Abend: Katja Anette Brandt, Kathrin Werner, Matthias Koch. turi2 am Morgen: WDR, Fachpresse, Bill Kaulitz. →

Werktags um 7 und 17 Uhr die wichtigsten News aus Medien, Marketing und PR als Newsletter. Jetzt abonnieren!

Loading...

Suchen auf turi2.de

Banner turi2 Themenwoche

Generic selectors
Exact matches only
Search in title
Search in content
Search in posts
Search in pages
Impressum, Datenschutz, Mediadaten, FAQ, RSS-Feed, Termine
Dieses Blog läuft mit WordPress
  • home
  • faq
  • media
  • team
  • turi2.tv
  • edition
  • termine
  • köpfe
  • tags
  • abo
  • datenschutz