“Das größte Live-Experiment in der Geschichte der Menschheit” – Miriam Meckel und Léa Steinacker über Chancen und Risiken von KI.
27. März 2023
Mensch und Maschine: “Je früher wir Kinder, Jugendliche und die Menschen überhaupt sensibilisieren, dass hier eine Revolution im Gange ist, desto besser”, sagt Miriam Meckel im Doppel-Interview mit Léa Steinacker zum Auftakt der turi2 Themenwoche Digitalisierung & KI. Im Gespräch mit Chefredakteur Markus Trantow berichten die Wissenschaftlerinnen und Bildungsunternehmerinnen von ihren aktuellen KI-Experimenten, etwa einer Sprach-KI, die mit der Stimme von Meckel spricht. Statt KI aus Schule und Uni zu verbannen, plädieren sie dafür, die Technologie gezielt und kritisch einzusetzen. “Wir erleben gerade den ersten Anwendungsmoment von KI”, sagt Steinacker mit Blick auf Tools wie ChatGPT. Menschliche Kreativität werde die Technik nicht ersetzen, sind die beiden überzeugt: “Wir brauchen sie dringend, damit das Internet in wenigen Jahren nicht allein aus KI-Remix besteht.” Im Interview blicken sie auf die gesellschaftlichen, wirtschaftlichen und politischen Dimensionen der KI-Revolution.
Miriam und Léa, lasst uns ganz praktisch einsteigen: Welche KI-Anwendung hat Euch zuletzt begeistert – und warum?
Miriam: Mich haben die Sprachmodelle begeistert: Ein Beispiel ist ChatGPT von OpenAI, das Microsoft jetzt auch in der eigenen Suchmaschine Bing einsetzt. Aber es gibt natürlich zahlreiche andere von Google, Baidu oder dem deutschen Hersteller Aleph Alpha. Bleiben wir mal bei ChatGPT. Spannend finde ich hier nicht allein die naheliegenden Anwendungen, dass man damit Gliederungen und Textabschnitte zu einem beliebigen Thema erstellen lassen kann. Dabei muss man auch ziemlich vorsichtig sein, denn was die KI autoritativ verkündet, kann durchaus falsch sein. Ich gebe aber in diesem Semester einen Kurs über Datenjournalismus. Spannend ist hier, dass ich mit ChatGPT öffentlich zugängliche Datensätze befragbar machen kann, also in den Dialog mit den Informationen treten kann. Sprachmodelle als Analysetool – das ist eine echte Produktivitätsunterstützung.
Léa: Mich haben zuletzt Bild- und Audio-Anwendungen begeistert. Etwa das Audio-Tool Vocally Yours: Eine synthetische Sprach-KI, die wir gemeinsam mit unseren Kolleg*innen an der Universität St. Gallen entwickelt haben. Wir haben das Modell mit vielen Stunden von Audio-Clips von Miriams Stimme gefüttert und die KI damit trainiert. Jetzt kann die Software mit Miriams Stimme sagen, was immer wir ihr vorgeben. Wir haben sie etwa Weihnachtsgedichte aufsagen und Reden halten lassen. Das ist schon sehr beeindruckend, auch wenn man sich überlegt, was man damit in Zukunft alles machen kann. Für die automatisierte Vertonung von Texten wäre das ein echter Umbruch.
Das klingt für mich auch ein bisschen gruselig. Miriam, das Tool mit deiner Stimme darf nicht in die falschen Hände fallen, oder?
Miriam: Da hast du natürlich recht. Es gibt jetzt eine wunderbare Aufzeichnung des Weihnachtsgedichts von Loriot, in dem die Försterin den Förster zu später Nacht erschießt. Das habe ich nie selbst gelesen. Diese Aufnahme habe ich Freunden vorgespielt, und die waren alle ganz erstaunt und sagten, sie hätten nicht erkannt, dass ich das nicht bin. Da sind wir natürlich schnell im Bereich der Deep Fakes. Man kann sagen, dass wir durch Bots wie ChatGPT “Real Fakes” haben: Die KI-Modelle behaupten manchmal einfach etwas, das stimmt dann nicht, da steckt aber keine Absicht dahinter. Und dann gibt es “Deep Fakes”, bei denen etwa eine Audio-KI genutzt wird, um Menschen absichtlich zu täuschen. Man stelle sich nur mal vor, eine KI ruft mit meiner Stimme irgendwo an und löst eine teure Bestellung in meinem Namen aus. In unserem Forschungsprojekt geht es auch darum, wie wir solchen Missbrauch vermeiden. Es gibt ja das Prinzip der digitalen Wasserzeichen bei Fotos, mit denen sich Urheberschaft nachweisen lässt. Sowas lässt sich auch im Audio-Bereich machen. Damit ist dann klar, dass es sich um ein Original handelt. Denn ich kann ja auch wollen, dass man meine Stimme verwendet. Bei einer anderen KI namens Descript, die wir auch bei ada benutzen, musst du mit der Nutzung dein Einverständnis erklären, dass die KI deine Stimme verwendet. Mit solchen Absicherungen kann das funktionieren.
Léa: Dennoch sehen wir auch hier die Risiken zur Realitätsverzerrung, so der brandaktuelle Fall um die mit der Bild-KI Midjourney kreierten Bilder von Donald Trumps angeblicher Verhaftung: Der Investigatjvjournalist, der 50 künstlich generierte Fakes auf Twitter veröffentlicht hat, wurde von der KI-Plattform nun vorerst gesperrt. Wir werden uns fragen müssen, wie und ob Authentizität überhaupt noch prüfbar ist.
Miriam, welche Anwendungsgebiete siehst du denn für eine KI, die authentisch mit deiner Stimme oder der Stimme eines Promis oder Firmen-Chefs sprechen kann?
Miriam: Nehmen wir zum Beispiel den Journalismus. Hier zeichnet sich seit einigen Jahren der Trend ab, dass Journalist*innen stärker als Absender ihrer Texte in den Vordergrund rücken, gar als Marken wahrgenommen werden. Durch Anwendungen wie Vocally Yours kann jede und jeder die eigenen Texte sehr zeit- und kosteneffizient in Audioformate übersetzen. Und das sogar mit der eigenen Stimme, die im Journalismus durchaus ein Qualitätsbeweis ist. In der Unternehmenskommunikation ließen sich so CEO-Nachrichten in der jeweiligen Stimme als Podcast produzieren. Bei ada stellen wir unseren Fellows Lerninhalte in unterschiedlichsten Formaten zur Verfügung, um möglichst viele Lerntypen anzusprechen: Text, Video, Audio sind nur einige davon. Auch hier experimentieren wir, wie wir unsere Inhalte ohne allzu großen Aufwand in unterschiedlichen Formaten zur Verfügung stellen können, und nutzen vergleichbare Tools.
Gibt es eine KI-Anwendung, die ihr ärgerlich oder gar gefährlich findet?
Miriam: Ich glaube nicht, dass es eine KI gibt, die per se gefährlich ist. Ich bin auch keine Technologie-Pessimistin. Aber ich glaube, es gehört immer dazu, zu schauen, wie eine Technologie angewendet werden kann. Bleiben wir mal bei generativer KI: Wenn die sich auf breiter Front durchsetzt, dann könnte eine neue digitale Kluft entstehen. Darauf hat etwa Amy Webb auf der South by Southwest hingewiesen: Nur wenn du verstehst, wie solche Systeme funktionieren – und das ist durchaus kompliziert – kannst du auch einschätzen, wie die Ergebnisse, die diese Systeme liefern, zu interpretieren sind. Der Umgang mit Desinformation ist da sicher das eine. Aber es geht auch um Produktivitätsgewinne, die nur denjenigen zur Verfügung stehen, die diese Technik verstehen. Coder zum Beispiel können mithilfe von generativer KI etwa 50 % schneller arbeiten – und die sind ja sowieso schon gut aufgestellt. Bei anderen gesellschaftlichen Gruppen sieht das anders aus. Und damit müssen wir umgehen lernen.
Léa: In der Pharmaindustrie kann Machine Learning bei der Entwicklung von Medikamenten eingesetzt werden. Dadurch können sie deutlich schneller Bestandteile und Moleküle für lebenswichtige Medikamente vorhersagen und entwickeln. Das kann für Forscherinnen und Forscher bahnbrechend sein. Aber auch da gilt: Es gibt immer zwei Seiten. Ein Forschungsteam hat die Methode für eine Ethik-Konferenz umgedreht und die KI beauftragt, die Zusammensetzung tödlicher Substanzen zu entwerfen. Und die KI hat auch das getan und zum absoluten Entsetzen der Wissenschaftler*innen in weniger als sechs Stunden Tausende tödliche Stoffe entwickelt, bzw. deren Zusammensetzung vorhergesagt. Einerseits bahnbrechend, andererseits erschreckend.
Worin unterscheidet sich eigentlich der KI-Sprung, den wir mit ChatGPT und anderen Anwendungen gerade erleben, von den KIs, an die wir uns im Alltag schon längst gewöhnt haben, etwa den Algorithmen, die unsere Newsfeeds zusammenstellen bei Facebook, oder die Videos bei TikTok?
Léa: Der große Unterschied ist, dass es jetzt eine Anwendung gibt, die die Durchschnitts-Userin selbst einsetzen kann. Bei der Personalisierung von Newsfeeds oder – noch ausgefeilter – der Personalisierung von Werbung, die schon heute sehr viele Daten nutzt und daraus berechnet, worauf wir wahrscheinlich klicken werden, sind wir ja faktisch nur das Objekt. Und das ist jetzt anders. Wir erleben gerade den ersten Anwendungsmoment von KI, in dem die Masse der Menschen merkt, dass sie diese Technologie als Tool nutzen kann. Miriam hat das in ihrer Kolumne kürzlich “den iPhone-Moment der KI” genannt. Wir sind jetzt in der Ära der erzeugenden KI.
Miriam: Ich glaube, dass es sich dabei um eine General Purpose Technologie handelt, die in allen möglichen Anwendungsgebieten zum Einsatz kommen wird. Das zeichnet sich z.B. jetzt schon bei der Einführung von ChatGPT-4 ab, einem multimodalen Modell. Wir treten in eine Zeit des text-to-everything ein. Wir sagen etwa der KI, sie soll uns ein Bild oder ein Video erzeugen, das ein Tipi in der Wüste zeigt, dazu zwei Frauen auf einem weißen und einem schwarzen Pferd, die im Sonnenuntergang aufeinander zureiten – und genau dieses Bild – oder mehrere davon – spuckt die KI uns aus. Und das wird nicht nur bei Bildern der Fall sein, sondern auch auf ganz vielen anderen Feldern der Kreativität und Produktivität. Damit erreichen wir eine Ebene, die wir bisher nicht kennen.
Verliert kreative, schöpferische Arbeit an Wert, auch finanziell, wenn wir Teile davon an KI auslagern?
Léa: Wenn KI Texte oder Bilder generiert, kann sie das nur, weil sie Daten ausgewertet, Muster erkannt, Wahrscheinlichkeiten für die Abfolge von Worten oder die Anordnung von Farben analysiert hat. Das bedeutet nicht, dass die KI kreativ ist. Sie ist schlicht eine Mustererkennungs- und Vorhersageweltmeisterin, eine Imitationsmaschine.
Im Gegensatz dazu werden wir Menschen ganz anders kreativ in der Arbeit mit und über KI: die richtigen Fragen stellen, umformulieren, nachhaken, hinterfragen – und dann wiederum mit dem, was einem die KI auswirft, schöpferisch und eben auch kritisch umgehen. Ein schönes Beispiel dafür ist das Kunstprojekt “Missjourney”, ein alternativer Text-zu-Bild-Generator, der nur Bilder von Frauen und nicht-binären Menschen generiert, weil festgestellt wurde, dass herkömmliche KI-Bildgeneratoren zu 80 % Männer visualisieren. Die Menschliche Kreativität wird bleiben. Wir brauchen sie dringend, damit das Internet in wenigen Jahren nicht allein aus KI-Remix besteht. Vielleicht erfährt das Label “menschengemacht” im Zuge dessen sogar eine Aufwertung.
Bleiben wir noch mal beim Text: Miriam, du bist Hochschulprofessorin. Sind dir schon KI-generierte Texte untergekommen, die Studierende als ihre eigenen verkauft haben?
Miriam: Ich habe es schon mit Plagiaten zu tun gehabt, auch vor ChatGPT. Dafür gibt es ja auch Software, die bei uns an der Universität St. Gallen alle Abschluss-Arbeiten prüft. Mit ChatGPT-“Plagiaten” habe ich bislang noch nicht zu tun gehabt, aber ich habe meine Prüfungsformen als Reaktion auf die aktuellen Entwicklungen geändert: Ich werde in einem Kurs unter anderem einen journalistischen Essay als Leistungsnachweis schreiben lassen, für den die Studierenden ChatGPT nutzen sollen, um etwas zu kreieren. Anschließend müssen sie sich kritisch damit auseinandersetzen – was hat gut funktioniert, wo liegen die Probleme? Wie lässt sich das Ergebnis hinsichtlich Inhalt und Sprache kritisch analysieren? Es liegt doch im Zentrum unserer Bildungsbemühungen, dass viele schnell verstehen müssen, mit diesen Tools umzugehen.
Wie muss sich der Bildungssektor ändern?
Léa: Es braucht ein grundlegendes Verständnis für die Funktionsweisen von KI und ihren Limitierungen – auch bei den Lehrenden. Sie müssen verstehen, was so eine KI kann und was sie nicht kann. Einige haben diesen Denkwandel direkt begonnen: Es gibt z.B. schöne Geschichten aus den USA, wo Grundschullehrerinnen ChatGPT mit in den Unterricht genommen haben und den Kindern den Auftrag gegeben haben, Geschichten zu generieren und die Ergebnisse mit ihrem menschlichen Verständnis zu kritisieren.
Miriam: Das sind die Kompetenzen, die wir im Bildungswesen in Zukunft brauchen. Wir können vermutlich in Deutschland nur davon träumen, dass Lehrerinnen und Lehrer das Tool im Unterricht einsetzen. Dabei stimmt es doch: Je früher wir Kinder, Jugendliche und die Menschen überhaupt sensibilisieren, dass hier eine Revolution im Gange ist, desto besser.
Also die KI als Werkzeug im Unterricht, so wie der gute, alte Taschenrechner in der Mittelstufe?
Miriam: Ich würde sogar noch ein Stück weiter gehen: Der Taschenrechner in der Schule war früher ja recht beschränkt: Du konntest damit rechnen, und wenn man ihn auf den Kopf gestellt hat, mit bestimmten Zahlen-Kombinationen Wörter wie “Liebe” oder “Esel” schreiben und dem Sitznachbarn oder der Sitznachbarin hinhalten. Ich glaube, wir reden bei KI von einer Lebensassistentin, die irgendwann in allen Bereichen zur Anwendung kommen wird. Das überschauen wir jetzt alles noch gar nicht. Außerdem werden ChatGPT und andere KI-Tools, dadurch dass die Menschen sie nutzen, Teil unserer Bildungs-Sozialisation und damit auch Teil unseres Bildungsauftrags. Was das bedeutet, darüber müssen wir jetzt intensiv nachdenken.
ChatGPT wird als Gamechanger bei der Internet-Suche gehandelt, die Integration bei Bing ist angelaufen. Müssen wir Suchergebnisse demnächst nicht mehr mühsam selbst durchforsten? Übernimmt das eine KI?
Léa: Da steht uns eine große Entwicklung bevor: Sprachmodelle wie das, das Bing jetzt einsetzt, können sicher synthetisieren, was das Internet zu unseren Fragen zu bieten hat. Im nächsten Schritt werden wir womöglich nicht mehr nur nach existierenden Produkten oder Realitäten suchen können, sondern die KI dafür nutzen, neue Realitäten zu generieren. Dann muss ich nicht mehr fragen: Welche aktuellen Sneaker gibt es? Sondern ich kann die Aufgabe stellen: Kreiere mir einen Sneaker, der meine drei Lieblingsfarben inkludiert, ein High-Top ist, aber nicht so aussieht, wie eine Marke, die es schon gibt. Außerdem soll er irgendwie nach japanischem Stil aussehen. Die KI wird dann in wenigen Sekunden aufgrund vorhandener Daten etwas ganz Neues geschaffen haben, das es so noch nie gab und in Produktion geben. Das wäre eine komplett neue Interaktion mit dem Internet.
Auch auf die Gefahr hin, dass die Frage vor dieser sehr weitgehenden Vision trivial wirkt: Was macht das mit den aktuellen Geschäftsmodellen im Internet, mit der Kreativ-Branche und dem Journalismus?
Miriam: Ich glaube, wir müssen zwei Dinge unterscheiden: Das eine ist die industrielle Perspektive. Da wird es eine Steigerung von Produktivität und Effizienz geben und das wird viel Convenience, Annehmlichkeit, mit sich bringen. Das andere ist unsere menschliche Kultur, unsere Zivilisation – und die wird mit einem großen Fragezeichen versehen. Wir schaffen gerade einen Sekundär-Kommunikations-Markt, auf dem im Wesentlichen Bots mit Bots sprechen werden. Es wird eine Integration von ChatGPT in unsere E-Mail-Programme, in Microsoft Office, ins Google-Drive, in unsere News-Cycles und alles, was wir machen, geben. Unsere individualisierten Bots werden mit anderen Bots Termine, Verträge und Lösungen aushandeln. Menschliche Kommunikation kommt dann dazwischen, wenn ich einen besonderen Input geben will oder die KI das Thema nicht hinreichend gelöst hat. Das Problem: Diese KI-Systeme werden auf Daten trainiert, die es im Internet gibt. Sie sind also große Wiederkäuer-Maschinen und liefern einen permanenten Remix.
Laufen wir also irgendwann Gefahr, dass wir uns nur noch wiederholen in einer KI-gestützten Welt, dass geistige Mono-Kulturen wachsen?
Léa: Das wird daran liegen, wie lange die Balance zwischen neuen Inputs, die ins Internet gelangen, und den Remixes durch die KI hält. Eine Studie einer internationalen Forschungsgruppe besagt: Digitale Originaldaten, die eine KI wie ChatGPT lesen kann, werden im Jahr 2026, also in drei Jahren, erschöpft sein. Dann hat die KI sozusagen das Internet ausgelesen und wir sind an dem Tipping Point, an dem die Originalität zugunsten des Remix kippt. Irgendwann könnte unsere Zivilisation also implodieren, was kreativen Output angeht.
Was folgt daraus für den Journalismus?
Miriam: Daraus folgt, dass wir auch in Zukunft Menschen brauchen, die in der Lage sind, jenseits der Vorschläge von KI zu denken und auch mal total verrückte Ideen haben, die vielleicht nicht auf Anhieb mehrheitsfähig sind. Wir brauchen Weirdness, das Schräge, das Mutige. Ich glaube, das kann der Journalismus leisten. Und ich hoffe sehr, dass es auch in Zukunft genug Menschen gibt, die bereit sind, dafür zu bezahlen. Vor dem Hintergrund kann ich übrigens überhaupt nicht verstehen, dass jemand wie Springer-Chef Mathias Döpfner sagt – ich paraphrasiere – dass wir in Zukunft keine Journalistinnen und Journalisten mehr brauchen. Das ist überhaupt nicht hilfreich und meines Erachtens auch schlicht falsch.
Wenn man euren ada-Newsletter “Brief aus der Zukunft” liest, merkt man schnell: Die totale Begeisterung über KI ist das bei euch im Team nicht. Ist das die typisch deutsche Skepsis? Oder liegt’s am Journalismus, der alles Neue tendenziell kritisch betrachtet?
Miriam: Da verwechselst du Kritikfähigkeit mit Pessimismus. Das Ziel ist es doch, zu verhindern, dass die Technologie einfach implementiert wird, ohne über die Folgen nachzudenken, so dass wir dann viele Jahre später den Mist zusammenkehren müssen. So haben wir es ja bei Facebook erlebt, etwa wenn es um die Beeinflussung des politischen Klimas oder ganzer Wahlen geht. Ich glaube, wenn wir als Menschen Kritikfähigkeit als Pessimismus abtun, laufen wir Gefahr, tatsächlich irrelevant zu werden. Es geht darum, uns kritisch mit einer Technologie auseinanderzusetzen, um die optimalen Einsatzmöglichkeiten nutzen zu können.
Léa: Dazu ein Zitat aus der Technologie-Geschichte des Historikers Melvin Kranzberg: “Technologie ist weder gut noch böse; noch ist sie neutral.” Der wichtigste Teil ist der letzte: Technologie ist nicht neutral. Das heißt, wenn wir im ada-Newsletter auf Technologie schauen, dann sind wir uns immer bewusst, dass Technologie Auswirkungen haben wird aufgrund ihrer Zusammensetzung, ihren Entwicklungsparametern und je nachdem, wie wir sie anwenden. Sie ist nie einfach nur da. Das berühmte Beispiel mit dem Hammer: Man kann ihn nutzen, um einen anderen Menschen zu töten, man kann ihn aber auch einsetzen, um ein Haus zu bauen. So ist es im Prinzip auch mit jeder anderen Technologie. Was wir bei ada machen: Wir laufen nicht einfach nur einem Hype hinterher, sondern wir wollen ein wirkliches Verständnis für die Technologie vermitteln, eine Analysefähigkeit, um die Auswirkungen der Technologie abschätzen zu können.
In meiner Doktorarbeit habe ich ein Framework entwickelt, das mit vier Dimensionen dabei hilft, genau diese Auswirkungen besser zu bewerten: das Codekapital, oder C.O.D.E: C steht hierbei für “Conception”: welches Ziel wurde sich gesetzt, was war die Idee hinter der KI und mit welchen Narrativen wird sie verbreitet? O steht für “Operations” und die Frage, welche Algorithmen und Modelle eingesetzt wurden. D bezieht sich auf die Datenbasis, die verwendet wurde, um das System zu trainieren, und E meint “Environment”, die menschliche, ökologische und institutionelle Umgebung, in der die KI eingesetzt wird. Wenn man diese Dimensionen bei einer Technologie, wie ChatGPT, einmal durchgeht, versteht man schnell, worauf man achtgeben muss. Auf einige dieser Risiken – für den menschlichen Umgang, die ungleiche Profitverteilung, die ökologischen Konsequenzen – weisen prominente KI-Forscherinnen auch seit Jahren hin.
Welche Regeln sollten für KI aus eurer Sicht gelten?
Léa: Da stehen wir jetzt sicher wieder vor einer neuen Herausforderung. Die EU hat ja in ihrem “AI Act” sehr gute Grundlagen gelegt, zum Beispiel, was Deepfakes angeht oder Technologien, die in der Lage sind, menschliches Verhalten zu manipulieren. Der Entwurf von 2021 fokussierte sich erstmal auf “Hochrisikokategorien”, in denen der Einsatz von KI in Bereichen wie Strafverfolgung, Migration, Infrastruktur, Produktsicherheit und Rechtspflege streng kontrolliert werden soll. Jetzt haben wir schon wieder eine ganz andere Situation, weil damals von generativer KI noch kaum die Rede war. Diese Technologie ist aber in der Lage, einen ganz erheblichen Einfluss auf die Menschen auszuüben, sie kann manipulieren, hat großes Potenzial für Verzerrungen aufgrund der riesigen Datenmengen an irrelevanten Inhalt im Internet. Jetzt wird debattiert, wie die EU diese Technologien mit mehreren Anwendungsfeldern einstuft.
Miriam: Das zeigt auch, dass wir mit der Regulierung immer der faktischen Entwicklung hinterherhinken. Letztlich geht das wohl nicht anders, wenn wir Innovationen ermöglichen wollen. Das Problem ist hier nur: Wir haben mit der generativen KI Ende des vergangenen Jahres eines der vielleicht größten sozialen Live-Experimente in der Geschichte der Menschheit gestartet. Dabei können ganz tolle Dinge rauskommen. Oder die Veränderung unseres Lebens, unserer Gesellschaft, wie wir sie kannten. Wir wissen das jetzt eben leider schlicht nicht.
Mehr von Miriam Meckel und Léa Steinacker:
Podcast: “Shift happens”
Wöchentlicher Newsletter: Brief aus der Zukunft join-ada.com
Dieses Interview ist Teil der Themenwoche Digitalisierung & KI – bis 2. April fragen wir auf turi2.de, wie der technologische Fortschritt Medien, Wirtschaft und Gesellschaft verändert.