“Warnungen, dass KI uns auslöschen wird, halte ich für Marketing-Gags” – Alena Buyx über berechtigte Kritik und falsche Panikmache.
20. Februar 2024
Mensch bleibt Mensch: Die Ärztin und Philosophin Alena Buyx mahnt als Vorsitzende des deutschen Ethikrats, dass durch den Einsatz von KI “die Entwicklungsmöglichkeiten des Menschen nicht eingeschränkt” werden dürften. Im Interview für die turi2-Themenwoche KI in der Kommunikation beschreibt sie, wo das schon heute passiert und warum wir trotzdem dazu neigen, einer Maschine zu schnell zu vertrauen. Eine “autonome Killer-KI” hält Buyx aber für das weniger dringende Problem – Untergangsszenarien und Forderungen nach einem Entwicklungsstopp erlebt sie als “PR-Manöver“ von Elon Musk und Co. Außerdem spricht sie darüber, welche Fragen sich die Medienbranche jetzt stellen muss und warum sie eine Kennzeichnungspflicht für KI-generierte Inhalte befürwortet.
Was bereitet Ihnen aktuell mehr Kopfzerbrechen? Künstliche oder menschliche Intelligenz?
Am meisten Kopfzerbrechen bereitet mir, wenn menschliche Intelligenz sich der künstlichen bedient, um damit problematische Dinge zu tun. Ansonsten glaube ich, dass Künstliche Intelligenz auch sehr viele positive Möglichkeiten bietet, gerade da, wo sie der menschlichen etwas abnehmen kann. Was ich damit andeuten will: KI ist eine sogenannte Dual-Use-Technologie.
Das bedeutet?
Man kann sowohl Gutes als auch Böses damit machen. Da gibt es riesige, tolle Potenziale. Andererseits gibt es Warnungen, dass Künstliche Intelligenz uns irgendwann auslöschen wird. Letztere halte ich eher für Marketing-Gags. Aber die Warnung, dass Menschen mit Künstlicher Intelligenz und Algorithmen schon jetzt wirklich sehr schädliche Dinge tun können – Stichworte Desinformation und Manipulation, beispielsweise in den sozialen Medien –, die ist sehr berechtigt, und natürlich muss man auch schlimme Zukunftsszenarien zumindest mitdenken.
Die rund 400 Seiten lange Stellungnahme des Ethikrats zu KI lässt sich zusammenfassen auf eine Empfehlung: KI soll die Möglichkeiten des Menschen erweitern und nicht einschränken. Wo klappt das heute schon besonders gut?
Bei spezialisierten Algorithmen, die eine bestimmte Aufgabe übernehmen. Mein Lieblingsbeispiel kommt aus der Medizin: Für neue Medikamente, beispielsweise in der Krebstherapie, muss man die genaue Faltung der Proteine in bestimmten Molekülen kennen. Das hat früher Jahre gebraucht, weil es fast unendlich viele Möglichkeiten und Kombinationen gibt. Heute rechnet das ein darauf trainierter Algorithmus in ein paar Stunden aus. Die gesamte experimentelle und klinische Forschung, die dann folgt, kann der Algorithmus natürlich nicht übernehmen. Aber er kann einen sehr aufwendigen und mühsamen Schritt zusammenschnüren, sodass neue Therapien schneller entwickelt werden und dem Menschen helfen können.
Alena Buyx, geboren 1977, ist Ärztin mit weiteren Abschlüssen in Soziologie und Philosophie. An der TU München lehrt und forscht sie als Professorin für Ethik der Medizin und Gesundheitstechnologien und leitet das Institut für Geschichte und Ethik der Medizin. Seit 2016 ist sie Mitglied im Deutschen Ethikrat, seit 2020 dessen Vorsitzende.
Wo schränkt KI die Möglichkeiten des Menschen ein?
Immer da, wo Entscheidungen getroffen werden, die für bestimmte Individuen oder Gruppen negative Auswirkungen haben. Wenn Fehler passieren oder wenn die Entscheidungen der KI nicht hinterfragt werden können. Ein Beispiel sind Algorithmen, die Risiken abschätzen. Beispielsweise, ob Menschen straffällig werden, beim sogenannten Predictive Policing. Oder ob sie als Langzeitarbeitslose wieder eingliederungsfähig sind in den Arbeitsmarkt, dafür gab es in Österreich ein System. Oder auch bei der Abschätzung des Kindeswohls: Wenn KI einschätzt, wie hoch das Risiko ist, dass ein Kind Gewalt und Leid in einer Familie erfährt und vom Jugendamt aus der Familie genommen werden sollte. Das sind Bereiche, die nicht nur tief ins Leben von Menschen hineinragen, sondern auch wesentliche Grundrechte betreffen. Je wichtiger der Entscheidungsbereich, desto besser muss man darauf achten, dass die Algorithmen gut arbeiten. Und desto vorsichtiger muss man sowas einführen und immer dafür sorgen, dass solche Entscheidungen überprüfbar sind und man im Zweifel eine Einspruchsmöglichkeit hat.
Also: Je wichtiger die Entscheidung, desto mehr und desto früher muss ein Mensch beteiligt sein.
Es gibt sehr viele Beispiele dafür, dass schon die Trainingsdaten für ein KI-Modell verzerrt sind und so bestimmte Gruppen benachteiligt werden können, weil sie auch in der Realität benachteiligt sind. So können KIs Vorurteile und Diskriminierung quasi festbetonieren. Und dadurch, dass das Ganze auf algorithmischer Basis passiert, kommt noch ein zweiter Bias hinzu: der sogenannte Automation Bias.
Was meinen Sie damit?
Dass man der Entscheidung einer Maschine sehr gern und schnell folgt. Denn die wirkt so schön neutral, so sachlich. Daher muss man gerade in sensiblen Bereichen, wo man das Leben von Menschen verändern kann, besonders aufpassen. Auch die DSGVO sagt übrigens, dass wichtige Entscheidungen nie nur auf Grundlage von automatisierten Systemen erfolgen dürfen.
Als Vorsitzende des Ethikrats haben Sie mit vielen Entscheidungsträgern aus Wirtschaft und Politik zu tun. Wie nehmen Sie die Debatte über KI wahr?
Das Thema scheint mir weit oben auf der Agenda. Auch die KI-Verordnung der EU ist ja zackig gekommen, das hat nur ein Jahr gedauert. So ein Gesetzgebungsprozess auf EU-Ebene ist ein Ungetüm, ChatGPT und die generative KI sind da mitten reingekracht – wurden aber trotzdem berücksichtigt, mit allen Komplexitäten. Ich nehme die Debatte um KI als relativ reif geführt wahr: Diejenigen, die mit dem Thema zu tun haben, sehen die Potenziale und die Entwicklung der Technologie ebenso wie die Risiken, die jahrzehntelangen Debatten und die vielen Vorarbeiten. Gleichzeitig hatten die leicht hysterischen offenen Briefe mit Untergangsszenarien und Forderungen nach einem Entwicklungsstopp, die am Anfang von Elon Musk und anderen geschrieben wurden, keinen besonders intensiven Widerhall gefunden. Das finde ich sehr gut, weil ich so etwas als PR-Manöver erlebe.
Der Deutsche Ethikrat ist ein unabhängiger Sachverständigenrat und befasst sich mit aktuellen ethischen, gesellschaftlichen, naturwissenschaftlichen, medizinischen und rechtlichen Fragen und gibt dazu Handlungsempfehlungen für Politik und Gesellschaft. Die 26 Mitglieder aus verschiedenen Bereichen der Wissenschaft, Gesellschaft und Kirchen werden von Bundestag und Bundesregierung gewählt und sollten ein möglichst breites Meinungsspektrum repräsentieren. (Foto: Sven Simon / Picture Alliance)
Als Sie sich öffentlich zu Corona-Maßnahmen und DSGVO geäußert haben, gab es auch Gegenwind bis zur Shitstorm-Stärke. Wie ist das bei KI?
Erstmal möchte ich ergänzen, dass ich vor allem positives Feedback bekommen habe und konstruktiv aufgegriffen wurde. Shitstorms sind die unangenehme Seite, die nicht ausbleibt, wenn man in der Öffentlichkeit steht. Das Thema KI ist eines, das vor allem Menschen diskutieren, die damit wirklich zu tun haben, sich damit vielleicht auch fachlich beschäftigen. Das eignet sich nicht so gut für Polarisierungen und Verkürzungen – auch wenn es natürlich immer ein paar Schreihälse und Gepolter gibt.
Ein Kritikpunkt ist, dass die Debatte recht elitär und theoretisch geführt wird. Welche Perspektiven fehlen?
Üblicherweise antwortet man auf diese Frage, dass natürlich die Betroffenen-Perspektive wichtig ist. Das ist insofern schwer, als dass es bei einigen Dingen noch nicht so viele Betroffene gibt, was die spezialisierten Algorithmen anbelangt. Von der generativen KI sind wir aber jetzt schon alle betroffen, die ist im Alltag angekommen. Und mit ihr auch das Thema in der breiten Öffentlichkeit. Ich habe den Eindruck, dass es heute stärker als früher als ein gesellschaftlich relevantes Thema wahrgenommen wird, bei dem auch ethische, soziale, ökonomische, politische Perspektiven verhandelt werden. Von dieser Form der sachlichen Debatte bin ich recht angetan – und das sagt man ja eher nicht so häufig über öffentliche Debatten.
Wie können wir verhindern, dass Menschen durch KI abgehängt werden?
Unsere Aufgabe ist es im Moment, rumzulaufen und ganz vielen Gruppen und Berufsverbänden zu sagen: Beschäftigt euch damit. Das kommt auf euch zu, das kommt auf uns zu, so wird das euren Beruf verändern. Pflege, Ärzteschaft, Anwälte, Lehrerinnen und Lehrer, die Verwaltung und so weiter: Es gibt so viele Beispiele, wo es klug ist, jetzt sehr frühzeitig nachzudenken. Wer eingeschränkt werden könnte durch eine KI-Anwendung, muss man sich im Einzelnen anschauen. Und dann wäre es natürlich gut, wenn man das vermeidet und gleichzeitig diejenigen irgendwie mit ins Boot holt.
Welche Verantwortung hat der Journalismus in der Berichterstattung über KI?
Nicht meine Baustelle, aber: Möglichst ausgewogen und informiert die Themen und Anwendungen darzustellen. Es hat zum Beispiel wahnsinnig geknallt, als diese offenen Briefe von Promis geschrieben wurden. Ich habe da aber tolle Artikel gesehen, die die Briefe aufgegriffen und erklärt haben: “Okay, autonome Killer-KI ist vielleicht irgendwann mal ein Schreckensszenario, aber es gibt Fragen, die jetzt schon sehr viel dringlicher sind, lasst uns die mal anschauen.” Es ist Ihre klassische journalistische Verantwortung: Das sagen, was ist. Und sich eben nicht einspannen oder treiben zu lassen. Das ist in einer Aufmerksamkeitsökonomie, wie wir sie haben, gar nicht so einfach.
Und welche Verantwortung haben die Medien als Branche?
Medienschaffende haben eine wirklich interessante Rolle. Sie berichten ja nicht nur über KI, sondern sind auch mit am meisten davon betroffen. Weil gerade die Algorithmen der generativen KI wirklich in ihre direkten Handlungsbereiche reinfahren. Damit setzen sich viele jetzt schon intensiv auseinander: Wie geht man damit um, dass man mit ChatGPT schon recht ordentliche Texte formulieren kann? Wie schaffen wir es als Medien, unsere Tätigkeit abzugrenzen von KI-generierten Ergebnissen? Was ist das Besondere an uns, was unser Mehrwert? Wie gehen wir mit KI-Instrumenten um? Wie setzen wir sie gut ein, wie passen wir die Ausbildung an? Meine Empfehlung wäre, sich selbst Handlungsregeln zu geben, um der eigenen Professionsverantwortung zu entsprechen, ganz proaktiv. Da ist schon ganz viel im Fluss in der Branche. Daher erhoffe ich mir auch, dass Ideen und Konzepte entwickelt werden, von denen Branchen, die noch nicht so direkt betroffen sind, lernen können.
Wenn Sie jetzt und hier verbindliche Regeln dafür aufstellen dürften, wie Medien KI einsetzen: Welche wären das?
Transparenz ist extrem wichtig. Auch wenn sie ein imperfektes Instrument ist, bin ich ein großer Fan einer Kennzeichnungspflicht. Sowohl für Texte als auch für Bilder. Bei Texten ist es deutlich schwieriger. Bei Fotos und Videos ist es technisch relativ gut zu machen, das sagen auch Akteure, die sich in dem Bereich sehr gut auskennen. Daran sollte der Qualitätsjournalismus auch ein Eigeninteresse haben: Ich ganz persönlich zum Beispiel will eher wenig KI-Contents lesen, die interessieren mich begrenzt. Ich will journalistische Inhalte lesen, von denen ich weiß, dass sie aus einer Quelle stammen, der ich vertraue und zu der ich eine Beziehung habe. Jetzt bin ich natürlich als Medienkundin schon ein bisschen älter als andere. Aber auch bei Jüngeren, bei denen, die auf TikTok und anderswo Opfer werden von wildesten Manipulationen und Fake News, gilt: Es ist noch nie so wichtig gewesen, klar zu unterscheiden zwischen wahr und falsch. Und klar zu machen, aus welchen Quellen etwas stammt. Und dazu gehört für mich auch, dass man angibt, wenn etwas KI-generiert ist.
Wie könnte ein ethisch vertretbarer Einsatz von KI in der Werbung aussehen?
Es gibt ja bereits lange Diskussionen darum, wie ein ethisch vertretbarer Einsatz von Werbung aussieht. Auch da geht es darum, wie man etwas kennzeichnen muss, beispielsweise aktuell als Influencer, im Digitalen und in Social Media. Im Print muss ja auch Anzeige darüber stehen. Da macht KI den Kohl erstmal gar nicht fett. Für mich gilt hier wieder die Transparenzregel.
Könnte KI auch eine Chance sein, nicht nur für Journalisten, sich an den eigentlichen Kern des eigenen Berufs zu erinnern?
Wir als Ethikrat sagen, es gibt eine Pflicht zur Weiterentwicklung von KI-Anwendungen, wenn die Dinger etwas im realen Leben besser als wir machen, und das auch durch Forschung ausreichend belegt ist. Wenn sie unsere Fehler und Ungenauigkeiten vermeiden, wenn sie unsere Handlungs- und Entfaltungsmöglichkeiten verbessern. Gleichzeitig sagen wir: Es kann trotzdem Gründe geben, warum wir bestimmte Dinge immer in menschlicher Hand halten wollen, selbst wenn eine KI einzelne Aufgaben besser kann. Also muss man sich überlegen: Was können und wollen wir delegieren? Und was nicht? Und vor allem – warum? Wir empfehlen, dass immer Menschen am Ende im Sattel bleiben. Aber wie genau das aussieht, das kann man nicht pauschal vorgeben, auch kein Ethikrat. Das müssen die Berufe selbst tun.
Welchen Teil Ihres Jobs als Vorsitzende des Ethikrats wird nie eine KI übernehmen – und welchen vielleicht schon?
Da maße ich mir keine konkrete Vorhersage an – Teile vermutlich der meisten Jobs, also auch von Ehrenämtern wie dem Ethikratsvorsitz, können vermutlich zukünftig ersetzt werden, etwa in der Textarbeit. Der Posten ist aber so vielgestaltig und in der Tätigkeit auch so unvorhersehbar, dass ich mich zumindest traue vorherzusagen, dass das Amt noch lange in menschlicher Hand bleiben muss – vor allem aber bleiben sollte.