“KI ist keine magische Box, die alle Probleme löst” – Jürgen Geuter über Technik-Religion und KI-Inzest.
19. Februar 2024
Büchse der Pandora: Informatiker und Philosoph Jürgen Geuter alias “tante” gilt als scharfer KI-Kritiker. Vor allem die Erzählung von der mächtigen Künstlichen Intelligenz, die in Zukunft all unsere Probleme löst, hält er für gefährlich, sagt er im Interview mit turi2-Redakteurin Nancy Riegel. KI sei in vielen Fällen hilfreich, führe aber auch dazu, dass “weniger Leute mehr arbeiten müssen, um weniger gute Qualität zu liefern” – eine “toxische Dynamik”. Medienschaffenden rät er, die Angst vor der Technik zu verlieren, um nicht auf “mystische Narrative” und PR-Geplapper hereinzufallen. Und er empfiehlt, bei KI-Firmen genauer hinzuschauen: “Niemand verdient mit KI aktuell Geld.” Er kritisiert Tech-Bros, die Dax-Vorstände bezirzen – und sagt, warum er ChatGPT für inzestuös hält. Mit diesem Interview beginnt die Themenwoche KI in der Kommunikation bei turi2.
Interview: Nancy Riegel
Sie sind bekannt als KI-Kritiker. Gibt es eine KI-Anwendung, die Sie überzeugt?
Super viele. Es ist ja keine grundsätzliche Bullshit-Technologie – nur viele der KI-Erzählungen sind schwierig, unwahr oder mit unschönen Seiteneffekten verbunden. Aber es gibt viele Bereiche, wo man KI super einsetzen kann. Ich leite die Forschung in einer Mediaagentur, die digitalisierte Räume u.a. für Museen und Besucherzentren baut und dort mit neuen Medien Inhalte vermittelt. Für uns ist die Tatsache, dass Gestensteuerung mittlerweile funktioniert, ohne dass Menschen Sensoren am Körper tragen, super – dadurch können Menschen immersiv mit Software interagieren. Oder dass Übersetzungen damit so schnell funktionieren, sei es in andere Sprachen oder in Einfache Sprache. Es gibt noch viele weitere Beispiele: medizinische Diagnosen, Überwachung von Produktionsprozessen, Bilderkennung und so weiter.
Sie haben Informatik studiert, ich bin Journalistin geworden, als KI noch Zukunftsmusik war – was muss ich über die Algorithmen hinter KI wissen, damit wir auf Augenhöhe sprechen können?
KI ist ein statistisches System. Man gibt in das Ding irgendwelche Trainingsdaten ein: Sprache, Bilder, Filme, was auch immer. Das wird dann auf Zahlen heruntergebrochen und damit Statistik gemacht. Man versucht die Muster, die da drin sind, statistisch zu fassen. Das sieht man bei Bildgeneratoren wie Midjourney. Wenn man dort “küssendes Paar” als Prompt eingibt, dann kommt da meistens ein Bild von zwei jungen, gutaussehenden, weißen, heterosexuellen Menschen raus, weil das das ist, was am meisten in den Trainingsdaten war. Werbung sah in den letzten 30 Jahren häufig so aus. In diesem System steckt das drin, was ich reingesteckt habe.
… was auch dazu führt, dass bei Befehlen wie “Drogendealer” oftmals People of Color von den KI-Bildgeneratoren gezeigt werden.
Ganz genau. Die Systeme sind nicht bewusst diskriminierend, aber die Ausgabe ist es eben trotzdem – weil es das ist, was in den Trainingsdaten steckte. Die Riesen-KI-Systeme wie ChatGPT, Googles Gemini oder Perplexity nehmen sich einfach alles, was sie im Internet finden können. Sie sind reine Reproduktionsmaschinen.
Jürgen Geuter,
Jahrgang 1979, ist Informatiker und Philosoph. Unter seinem Internet-Synonym “tante” äußert er sich seit Jahren kritisch zu technischen Entwicklungen wie Krypto, NFT, Metaverse – und jetzt eben KI. Er arbeitet in der Berliner Designagentur Art+Com, die interaktive Installationen, mediale Räume und Architekturen gestaltet. Studiert hat er an der Uni Oldenburg.
Sie haben bei der letzten Republica gesagt, KI sei keine Technologie, sondern ein Narrativ, auf das wir alle hereinfallen. Was meinen Sie damit?
In Presseberichten über KI oder in der PR von OpenAI oder Microsoft geht es sehr, sehr selten wirklich um faktisch technologische Innovationen. Da geht es eher um Hoffnung und unsere Zukunft. Da werden Dinge geschrieben wie “KI löst die Klimakrise” oder “KI wird die nächsten Impfstoffe entwickeln”. Das ist natürlich ein magisches Denken. So als ob KI schon jetzt alles könnte und auch in Zukunft alle Probleme lösen wird. Es ist fast schon eine religiöse Metapher. Wir wollen uns mit vielen Problemen – kollabierendes Klima, Ungleichheit auf der Welt, Pandemie – nicht mehr beschäftigen. Also sagen wir, die KI macht das jetzt für uns und wir können weitermachen wie bisher, ist ja alles egal. Deshalb bezeichne ich KI als Narrativ.
Was ist denn falsch an Aussagen wie “KI kann bei der Klimakrise helfen”?
KI-Systeme brauchen unglaubliche Mengen Strom und sie verbrauchen große Mengen Wasser. Also genau das Gegenteil von Klimaschutz. Es wird dann von Befürwortern wieder mit “bald” und “könnte” auf die Zukunft verwiesen, wo KI helfen soll, den Energieverbrauch zu senken oder die Energiespeicherung zu optimieren. Aber was tut KI jetzt fürs Klima? Nichts. Es ist immer diese Jenseitigkeit der Erzählung. Das Narrativ ist immer ein, zwei, fünf Jahre in der Zukunft. Aber ob das wirklich eintritt, weiß keiner.
KI wird auch als Lösung für den Fachkräftemangel kommuniziert. Bernd Reuther, verkehrspolitischer Sprecher der FDP-Bundestagsfraktion, sagte kürzlich, 20 % der Züge bei der Deutschen Bahn sollen in den nächsten 15 Jahren automatisiert fahren, also Lokführer durch KI ersetzt werden. Ist das wirklich so unrealistisch?
Wir wissen seit vielen Jahren, wie man automatisierte Bahnen baut, dafür brauchen wir die großen Sprachmodelle nicht – schauen wir an den Flughafen München, wo es eine selbstfahrende Bahn gibt. Okay, selbstfahrende Bahnen lassen sich vielleicht mit KI verbessern. Aber wie sieht es mit der Pflege aus? KI oder Roboter sollen in Zukunft Menschen pflegen – aber es gibt kein Beispiel, wo das wirklich funktioniert. Ich habe als Zivi Windeln von Pflegebedürftigen gewechselt, das ist kein standardisierter Vorgang, den einfach so ein Roboter übernehmen kann. Das sind Menschen mit unterschiedlichen Bedürfnissen, keine Holzstühle, die ich einfach so herumwirbeln kann. Das ist absurd, so funktioniert Pflege einfach nicht.
Und: Fachkräfte entstehen nicht aus dem Nichts. Man wird nicht als Fachkraft geboren, sondern macht im Job immer wieder Routinearbeiten, die zunächst mühselig sind, aber durch ständige Wiederholungen dazu führen, dass man besser darin wird und schließlich zur Fachkraft wird. KI verspricht nun, diese “billigen” Standard-Tätigkeiten zu übernehmen. Dadurch nehmen wir den Menschen, die in Deutschland Fachkraft werden wollen, die Möglichkeit dazu. Wie im Journalismus: Wenn KI langweilige Standard-Nachrichten auf Grundlage von dpa-Texten formuliert, dann lernt doch niemand mehr, Texte zu schreiben. KI macht es vielleicht schneller und produktiver, aber sie nimmt auch Ausbildungs- und Kompetenzerwerbsmöglichkeiten und wäre damit für die Fachkräfteentwicklung eher negativ. Wir treten damit die Leiter hinter uns weg.
Konzerne wie SAP oder Springer streichen Stellen, damit KI übernehmen kann. Sind die Konzerne da falsch abgebogen?
Für Springer funktioniert das. Ist doch egal, wie die Qualität des Outputs ist, Hauptsache die Klickzahlen stimmen und die Leute schließen ihr Bild-Plus-Abo ab. Bei SAP ist es vor allem eine Geldfrage. Ein Softwareentwickler kostet einen kleinen bis mittleren sechsstelligen Betrag im Jahr. Wenn man 100 Leute einstellt, ist das sehr, sehr viel Geld. Wenn SAP behauptet, statt den 100 braucht es wegen KI nur noch 30 Softwareentwickler, bleibt da richtig viel Asche übrig. Ob das stimmt, ist erstmal egal, denn allein das KI-Narrativ übt einen extremen Druck auf die Arbeitnehmerinnen aus. Wenn diese eine Gehaltserhöhung haben wollen, sagt ein Manager: “Dann bist du halt raus und die KI macht das für dich.” Egal, ob KI eine schlechtere Qualität abliefert. KI ist wie Fast Fashion. Die Klamotten sind in den letzten Jahrzehnten immer billiger geworden, aber auch die Qualität ist massiv runtergegangen. Jeder weiß, dass KI keine gute Qualität liefert, was aber egal ist, weil es so viel billiger ist.
Also geht die größte Gefahr bei KI aus Ihrer Sicht nicht von der Technologie selbst aus, sondern von der sozialen Komponente, befeuert durch das Narrativ der allmächtigen KI?
In vielerlei Hinsicht. Manchmal stellt die Technik auch selbst eine Gefahr dar, beispielsweise bei der Erzeugung von sexuellen Darstellungen wie Deepfake-Pornografie. Ein anderes Beispiel ist eine Telefonhotline für Menschen mit Essstörungen in den USA. Als die MitarbeiterInnen dort eine Gewerkschaft gründen wollten, um ihre Arbeitsbedingungen zu verbessern, wurden sie entlassen – und durch einen KI-Chatbot ersetzt. Die Hotline-Anbieter mussten das Ding aber nach wenigen Tagen wieder abschalten, weil der Bot Dinge gesagt hat, die Betroffene in eine Essstörung treiben können. Selbst wenn wir der positiven Narration glauben, dass beispielsweise KI ÄrztInnen bei der Krebsdiagnose helfen kann – was passiert dann in fünf Jahren? Dann wird dieser Ärztin, die bisher 50 Krebsfälle am Tag bearbeitet hat, aufgetragen, jetzt 70 Fälle am Tag abzuarbeiten, da sie ja jetzt den KI-Helfer hat. KI soll also vor allem wieder Kosten einsparen.
Das ist die eine Seite, andererseits könnten dadurch auch mehr Patientinnen am Tag behandelt werden.
Ja, das stimmt. Aber was passiert mit der eingesparten Zeit? Geben Krankenhäusern ihren Ärztinnen dann ausnahmsweise mal Zeit, um vielleicht mal zu schlafen, weil sie keine 24-Stunden-Schichten mehr machen müssen? Oder bekommen sie mehr Zeit, um mit den Betroffenen zu reden? Nach dem Motto: “KI macht den lästigen Shit und wir können schöne Dinge in der Zeit machen”? Das ist nicht das, was wir gerade beobachten. Im Gegenteil: Weniger Leute müssen durch die Unterstützung von KI mehr arbeiten, um weniger gute Qualität zu liefern, die aber gerade noch so ausreicht, damit man sie verkaufen kann. Das ist eine toxische Dynamik.
Sollten die Medien anders über Künstliche Intelligenz schreiben als bisher?
Medien sollten nicht einfach die PR der KI-Unternehmen übernehmen, was aktuell sehr oft passiert. Ein gutes Beispiel war, als OpenAI gewarnt hat, dass KI so mächtig wird, dass sie die Welt übernimmt. Warum sagt OpenAI das? Damit alle glauben, dass sie gerade Gott bauen. So etwas müssen Medien einordnen. Und natürlich versprechen KI-Firmen wie Open AI, Microsoft und Aleph Alpha immer ganz viel, weil sie aktuell Geld suchen. Niemand verdient mit KI aktuell Geld, alle verlieren unendliche Mengen Kohle. Microsoft verliert an jeder Person, die bei ihnen den AI-Programmierassistenten Github Copilot mietet, im Schnitt 20 Dollar. OpenAI verbrennt eine Million Dollar am Tag nur für Strom. Laut Schätzungen kostet OpenAI ein Prompt bei ChatGPT, also eine Eingabe, 34 Cent. KI ist im Moment also gar kein Business. Und ich sehe es nicht kommen, dass Menschen mal 100, 150 Dollar im Monat für ChatGPT bezahlen. So cool ist es dann eben auch nicht. Darüber wird wenig gesprochen und geschrieben.
Die Qualität von Sprachmodellen wird sich doch aber weiter verbessern und sich damit immer mehr lohnen – oder sehen Sie das nicht kommen?
Unterschiedliche Studien zeigen, dass sich die Qualität der Texte von ChatGPT verändert – aber nicht unbedingt verbessert. Und das hat einen ganz trivialen Grund, den man in der Mathematik “Model Collapse” nennt. In ChatGPT steckt bereits das gesamte Internet – ein zweites Internet haben wir nicht. Ein großer Teil der Inhalte, die jetzt und in Zukunft im Internet dazukommen, werden bereits durch KI erzeugt. Es wurden jetzt schon durch Künstliche Intelligenz mehr Bilder erzeugt, als jemals Fotos von Kameras geschossen wurden. Wenn ich aber nun ein KI-System mit KI-generiertem Zeug füttere, dann wird es schlechter. Die Informationsdichte in dem Ding sinkt. Es wird dümmer. Ein Bekannter von mir nennt es immer “Habsburg-KI”.
Also KI-Inzest.
Genau. Man könnte jetzt noch versuchen, schlechte Daten rauszuwerfen und die Systeme zu trainieren. Das kann man aber auch nicht beliebig oft tun.
Gibt es fachliche Fehler in der Berichterstattung über KI, die Ihnen immer wieder auffallen?
Die meisten Medienschaffenden haben mittlerweile einen guten Einblick in das Thema KI. Was mir aber immer wieder auffällt, ist diese Anthropomorphisierung der Systeme. Also dass man schreibt, “KI denkt, KI lernt” – nein, das tut sie nicht, sie ist ein statistisches System. Durch diese Vermenschlichung wird KI ein Bewusstsein, Neutralität und Seriosität zugeschrieben und damit das Recht, Entscheidungen zu treffen. Aber: Würden wir bei wichtigen Entscheidungen einfach einem beliebigen Typen auf der Straße die Entscheidungsmacht geben? Nein. Und, dass die Qualität von Programmen wie ChatGPT nicht vergleichbar ist mit menschlicher Qualität, wird auch zu wenig geschrieben. Weil niemand Spaß daran hat, dieser Innovationsreligion im Weg zu stehen. Dann gilt man gleich als Verhinderer.
Brauchen alle tech-fremden Journalistinnen eine KI-Schulung, damit sie wissen, worüber sie da schreiben?
Nein. Man kann auch über Software schreiben, ohne sie selbst programmieren zu können. Man kann ja auch über Atomkraftwerke schreiben, ohne Kerntechnik studiert zu haben oder über Gesetzesvorhaben, ohne Jura studiert zu haben. Medienschaffende sollten den Respekt vor der Technik ein wenig verlieren, um nicht in diese mystischen Narrative zu verfallen. Das gilt auch für Formulierungen wie “die klügsten KI-Köpfe der Welt”. Nein, das sind einfach Leute mit viel Geld, die Rechenzentren heizen lassen können. Das soll jetzt nicht großkotzig klingen, aber das System der neuronalen Netze, auf das KI baut, habe ich schon Anfang der 2000er im Studium gelernt. KI ist keine Raketenwissenschaft.
Sie schreiben selbst Texte, beispielsweise für golem.de. Wie finden Sie es, wenn Medienschaffende KI als Assistenten für ihre Inhalte nutzen, zum Beispiel für Datenrecherche?
Es gibt KI-Systeme, die große Datenmengen nach Mustern scannen können, zum Beispiel Gesichter in einer Masse von Fotos erkennen können. Das ist super sinnvoll für den investigativen Journalismus. Ich benutze diese Mustererkennung ja auch in meinem Job. Unsere KundInnen sind Museen, die oftmals gar nicht überblicken, was sie alles im Fundus haben. Aber bei Recherche muss man aufpassen. ChatGPT wird ja mittlerweile auch als Quelle angegeben – die Ergebnisse können stimmen, müssen sie aber nicht. Wenn ich ChatGPT frage: “Wer ist Jürgen Geuter?” Dann antwortest es, ich sei an einer Uni angestellt und hätte Bücher geschrieben. Das ist beides falsch. ChatGPT ist ein Werkzeug, das ich für bestimmte Dinge einsetzen kann, aber nicht für alles. Wie einen Hammer: Mit dem kann ich Nägel in die Wand schlagen. Wenn ich damit aber eine Schraube in die Wand schlage, ist die Wand danach ein bisschen kaputt. Und wenn ich versuche, mit einem Hammer eine Schraube in die Wand zu drehen, wird das Ergebnis sehr, sehr schlecht.
Sie kritisieren “die Erzählung der Alternativlosigkeit von KI” – gibt es denn tatsächlich eine Alternative zu KI?
In eigentlich fast jedem Fall, den man sich vorstellen kann. Anstatt KI unser Klima retten zu lassen, könnten wir weniger verbrauchen, weniger produzieren und weniger konsumieren. Statt Menschen von KI-gesteuerten Robotern pflegen zu lassen, könnten wir mehr Geld in die Pflege investieren und die Mitarbeitenden besser bezahlen, sodass mehr Menschen in dem Bereich arbeiten wollen. Wir könnten in Deutschland nachhaltige Technologien entwickeln, statt am KI-Rennen teilzunehmen, nur weil irgendwelche Tech-Bros uns sagen, dass wir es müssen. Viele dieser KI-Influencer, die aktuell vor Dax-Vorständen herumturnen, verstehen nicht wirklich, wie die Technik funktioniert oder haben ein seriöses Angebot, sondern behaupten: “Ich habe hier eine magische Box und die löst alle deine Probleme.” Vor allem löst sie Probleme, ohne dass dir eine Gewerkschaft sagt, wie viel du deinen Angestellten bezahlen musst – das Versprechen ist also: “Du kannst deine Angestellten einfach loswerden und durch KI ersetzen.”
Sie haben alle möglichen Argumente gegen KI aufgezählt, aber aufhalten lassen wird sich die Technik nicht. Wie also mit KI umgehen – als Privatperson, als Unternehmen, als Gesellschaft? Gibt es die eine Formel für alle?
Das wichtigste ist, KI nicht mehr als Thema der Zukunft zu verhandeln. Was kann KI jetzt? Wollen wir das? Was wollen wir nicht? Diese Fragen sollten wir uns stellen.
Haben Sie manchmal die Befürchtung, dass sich in fünf Jahren herausstellt, dass Sie Unrecht hatten, dass sich das KI-Thema selbst reguliert hat und gar nicht alles so schlimm gekommen ist, wie von Ihnen prophezeit?
Wenn sich in fünf Jahren herausstellt, dass meine Warnungen irrelevant waren und es den Leuten immer noch gut geht, dann kann ich extrem gut damit leben.
Dieses Interview ist Teil der Themenwoche KI in der Kommunikation.