artcount
  • News
  • Audio
  • themenwochen
  • Köpfe
  • Termine
  • edition
  • podcast
  • werben bei turi2
  • suchen auf turi2
  • FAQ
  • werben bei turi2
  • Team
  • Newsletter
  • themenwochen
  • Köpfe
  • Firmen
  • Jobs
  • Termine
  • Edition
  • podcast
  • turi2.tv
  • turi2 folgen
  • Partner
  • RSS-Feed
  • Datenschutz
  • Impressum

“Warnungen, dass KI uns auslöschen wird, halte ich für Marketing-Gags” – Alena Buyx über berechtigte Kritik und falsche Panikmache.

20. Februar 2024

Mensch bleibt Mensch: Die Ärztin und Philosophin Alena Buyx mahnt als Vorsitzende des deutschen Ethikrats, dass durch den Einsatz von KI “die Entwicklungs­möglichkeiten des Menschen nicht eingeschränkt” werden dürften. Im Interview für die turi2-Themenwoche KI in der Kommunikation beschreibt sie, wo das schon heute passiert und warum wir trotzdem dazu neigen, einer Maschine zu schnell zu vertrauen. Eine “autonome Killer-KI” hält Buyx aber für das weniger dringende Problem – Untergangs­szenarien und Forderungen nach einem Entwicklungs­stopp erlebt sie als “PR-Manöver“ von Elon Musk und Co. Außerdem spricht sie darüber, welche Fragen sich die Medien­branche jetzt stellen muss und warum sie eine Kenn­zeichnungs­pflicht für KI-generierte Inhalte befürwortet.

von Anne-Nikolin Hagemann

Was bereitet Ihnen aktuell mehr Kopfzerbrechen? Künstliche oder menschliche Intelligenz?
Am meisten Kopf­zerbrechen bereitet mir, wenn menschliche Intelligenz sich der künstlichen bedient, um damit problematische Dinge zu tun. Ansonsten glaube ich, dass Künstliche Intelligenz auch sehr viele positive Möglichkeiten bietet, gerade da, wo sie der menschlichen etwas abnehmen kann. Was ich damit andeuten will: KI ist eine sogenannte Dual-Use-Technologie.

Das bedeutet?
Man kann sowohl Gutes als auch Böses damit machen. Da gibt es riesige, tolle Potenziale. Andererseits gibt es Warnungen, dass Künstliche Intelligenz uns irgendwann auslöschen wird. Letztere halte ich eher für Marketing-Gags. Aber die Warnung, dass Menschen mit Künstlicher Intelligenz und Algorithmen schon jetzt wirklich sehr schädliche Dinge tun können – Stichworte Desinformation und Manipulation, beispielsweise in den sozialen Medien –, die ist sehr berechtigt, und natürlich muss man auch schlimme Zukunfts­szenarien zumindest mitdenken.

Die rund 400 Seiten lange Stellungnahme des Ethikrats zu KI lässt sich zusammenfassen auf eine Empfehlung: KI soll die Möglichkeiten des Menschen erweitern und nicht einschränken. Wo klappt das heute schon besonders gut?
Bei spezialisierten Algorithmen, die eine bestimmte Aufgabe übernehmen. Mein Lieblingsbeispiel kommt aus der Medizin: Für neue Medikamente, beispiels­weise in der Krebs­therapie, muss man die genaue Faltung der Proteine in bestimmten Molekülen kennen. Das hat früher Jahre gebraucht, weil es fast unendlich viele Möglichkeiten und Kombinationen gibt. Heute rechnet das ein darauf trainierter Algorithmus in ein paar Stunden aus. Die gesamte experimentelle und klinische Forschung, die dann folgt, kann der Algorithmus natürlich nicht übernehmen. Aber er kann einen sehr aufwendigen und mühsamen Schritt zusammen­schnüren, sodass neue Therapien schneller entwickelt werden und dem Menschen helfen können.

Alena Buyx, geboren 1977, ist Ärztin mit weiteren Abschlüssen in Soziologie und Philosophie. An der TU München lehrt und forscht sie als Professorin für Ethik der Medizin und Gesundheits­technologien und leitet das Institut für Geschichte und Ethik der Medizin. Seit 2016 ist sie Mitglied im Deutschen Ethikrat, seit 2020 dessen Vorsitzende.

Wo schränkt KI die Möglichkeiten des Menschen ein?
Immer da, wo Entscheidungen getroffen werden, die für bestimmte Individuen oder Gruppen negative Auswirkungen haben. Wenn Fehler passieren oder wenn die Entscheidungen der KI nicht hinterfragt werden können. Ein Beispiel sind Algorithmen, die Risiken abschätzen. Beispielsweise, ob Menschen straffällig werden, beim sogenannten Predictive Policing. Oder ob sie als Langzeit­arbeitslose wieder eingliederungs­fähig sind in den Arbeits­markt, dafür gab es in Österreich ein System. Oder auch bei der Abschätzung des Kindes­wohls: Wenn KI einschätzt, wie hoch das Risiko ist, dass ein Kind Gewalt und Leid in einer Familie erfährt und vom Jugendamt aus der Familie genommen werden sollte. Das sind Bereiche, die nicht nur tief ins Leben von Menschen hineinragen, sondern auch wesentliche Grund­rechte betreffen. Je wichtiger der Entscheidungs­bereich, desto besser muss man darauf achten, dass die Algorithmen gut arbeiten. Und desto vorsichtiger muss man sowas einführen und immer dafür sorgen, dass solche Entscheidungen überprüfbar sind und man im Zweifel eine Einspruchs­möglichkeit hat.

Also: Je wichtiger die Entscheidung, desto mehr und desto früher muss ein Mensch beteiligt sein.
Es gibt sehr viele Beispiele dafür, dass schon die Trainings­daten für ein KI-Modell verzerrt sind und so bestimmte Gruppen benachteiligt werden können, weil sie auch in der Realität benachteiligt sind. So können KIs Vorurteile und Diskriminierung quasi festbetonieren. Und dadurch, dass das Ganze auf algorithmischer Basis passiert, kommt noch ein zweiter Bias hinzu: der sogenannte Automation Bias.

Was meinen Sie damit?
Dass man der Entscheidung einer Maschine sehr gern und schnell folgt. Denn die wirkt so schön neutral, so sachlich. Daher muss man gerade in sensiblen Bereichen, wo man das Leben von Menschen verändern kann, besonders aufpassen. Auch die DSGVO sagt übrigens, dass wichtige Entscheidungen nie nur auf Grundlage von automatisierten Systemen erfolgen dürfen.

Als Vorsitzende des Ethikrats haben Sie mit vielen Entscheidungsträgern aus Wirtschaft und Politik zu tun. Wie nehmen Sie die Debatte über KI wahr?
Das Thema scheint mir weit oben auf der Agenda. Auch die KI-Verordnung der EU ist ja zackig gekommen, das hat nur ein Jahr gedauert. So ein Gesetzgebungs­prozess auf EU-Ebene ist ein Ungetüm, ChatGPT und die generative KI sind da mitten reingekracht – wurden aber trotzdem berücksichtigt, mit allen Komplexitäten. Ich nehme die Debatte um KI als relativ reif geführt wahr: Diejenigen, die mit dem Thema zu tun haben, sehen die Potenziale und die Entwicklung der Technologie ebenso wie die Risiken, die jahrzehnte­langen Debatten und die vielen Vorarbeiten. Gleichzeitig hatten die leicht hysterischen offenen Briefe mit Untergangs­szenarien und Forderungen nach einem Entwicklungs­stopp, die am Anfang von Elon Musk und anderen geschrieben wurden, keinen besonders intensiven Widerhall gefunden. Das finde ich sehr gut, weil ich so etwas als PR-Manöver erlebe.

Der Deutsche Ethikrat ist ein unabhängiger Sach­verständigen­rat und befasst sich mit aktuellen ethischen, gesell­schaftlichen, natur­wissenschaftlichen, medizinischen und rechtlichen Fragen und gibt dazu Handlungs­empfehlungen für Politik und Gesell­schaft. Die 26 Mit­glieder aus verschiedenen Bereichen der Wissen­schaft, Gesell­schaft und Kirchen werden von Bundes­tag und Bundes­regierung gewählt und sollten ein möglichst breites Meinungs­spektrum repräsentieren. (Foto: Sven Simon / Picture Alliance)

Als Sie sich öffentlich zu Corona-Maßnahmen und DSGVO geäußert haben, gab es auch Gegenwind bis zur Shitstorm-Stärke. Wie ist das bei KI?
Erstmal möchte ich ergänzen, dass ich vor allem positives Feedback bekommen habe und konstruktiv aufgegriffen wurde. Shitstorms sind die unangenehme Seite, die nicht ausbleibt, wenn man in der Öffentlichkeit steht. Das Thema KI ist eines, das vor allem Menschen diskutieren, die damit wirklich zu tun haben, sich damit vielleicht auch fachlich beschäftigen. Das eignet sich nicht so gut für Polarisierungen und Verkürzungen – auch wenn es natürlich immer ein paar Schreihälse und Gepolter gibt.

Ein Kritikpunkt ist, dass die Debatte recht elitär und theoretisch geführt wird. Welche Perspektiven fehlen?
Üblicherweise antwortet man auf diese Frage, dass natürlich die Betroffenen-Perspektive wichtig ist. Das ist insofern schwer, als dass es bei einigen Dingen noch nicht so viele Betroffene gibt, was die spezialisierten Algorithmen anbelangt. Von der generativen KI sind wir aber jetzt schon alle betroffen, die ist im Alltag angekommen. Und mit ihr auch das Thema in der breiten Öffentlichkeit. Ich habe den Eindruck, dass es heute stärker als früher als ein gesellschaftlich relevantes Thema wahrgenommen wird, bei dem auch ethische, soziale, ökonomische, politische Perspektiven verhandelt werden. Von dieser Form der sachlichen Debatte bin ich recht angetan – und das sagt man ja eher nicht so häufig über öffentliche Debatten.

Wie können wir verhindern, dass Menschen durch KI abgehängt werden?
Unsere Aufgabe ist es im Moment, rumzulaufen und ganz vielen Gruppen und Berufsverbänden zu sagen: Beschäftigt euch damit. Das kommt auf euch zu, das kommt auf uns zu, so wird das euren Beruf verändern. Pflege, Ärzteschaft, Anwälte, Lehrerinnen und Lehrer, die Verwaltung und so weiter: Es gibt so viele Beispiele, wo es klug ist, jetzt sehr frühzeitig nachzudenken. Wer eingeschränkt werden könnte durch eine KI-Anwendung, muss man sich im Einzelnen anschauen. Und dann wäre es natürlich gut, wenn man das vermeidet und gleichzeitig diejenigen irgendwie mit ins Boot holt.

Welche Verantwortung hat der Journalismus in der Berichterstattung über KI?
Nicht meine Baustelle, aber: Möglichst ausgewogen und informiert die Themen und Anwendungen darzustellen. Es hat zum Beispiel wahnsinnig geknallt, als diese offenen Briefe von Promis geschrieben wurden. Ich habe da aber tolle Artikel gesehen, die die Briefe aufgegriffen und erklärt haben: “Okay, autonome Killer-KI ist vielleicht irgendwann mal ein Schreckens­szenario, aber es gibt Fragen, die jetzt schon sehr viel dringlicher sind, lasst uns die mal anschauen.” Es ist Ihre klassische journalistische Verantwortung: Das sagen, was ist. Und sich eben nicht einspannen oder treiben zu lassen. Das ist in einer Aufmerksamkeits­ökonomie, wie wir sie haben, gar nicht so einfach.

Und welche Verantwortung haben die Medien als Branche?
Medien­schaffende haben eine wirklich interessante Rolle. Sie berichten ja nicht nur über KI, sondern sind auch mit am meisten davon betroffen. Weil gerade die Algorithmen der generativen KI wirklich in ihre direkten Handlungs­bereiche reinfahren. Damit setzen sich viele jetzt schon intensiv auseinander: Wie geht man damit um, dass man mit ChatGPT schon recht ordentliche Texte formulieren kann? Wie schaffen wir es als Medien, unsere Tätigkeit abzugrenzen von KI-generierten Ergebnissen? Was ist das Besondere an uns, was unser Mehrwert? Wie gehen wir mit KI-Instrumenten um? Wie setzen wir sie gut ein, wie passen wir die Ausbildung an? Meine Empfehlung wäre, sich selbst Handlungs­regeln zu geben, um der eigenen Professions­verantwortung zu entsprechen, ganz proaktiv. Da ist schon ganz viel im Fluss in der Branche. Daher erhoffe ich mir auch, dass Ideen und Konzepte entwickelt werden, von denen Branchen, die noch nicht so direkt betroffen sind, lernen können.

Wenn Sie jetzt und hier verbindliche Regeln dafür aufstellen dürften, wie Medien KI einsetzen: Welche wären das?
Transparenz ist extrem wichtig. Auch wenn sie ein imperfektes Instrument ist, bin ich ein großer Fan einer Kennzeichnungs­pflicht. Sowohl für Texte als auch für Bilder. Bei Texten ist es deutlich schwieriger. Bei Fotos und Videos ist es technisch relativ gut zu machen, das sagen auch Akteure, die sich in dem Bereich sehr gut auskennen. Daran sollte der Qualitäts­journalismus auch ein Eigen­interesse haben: Ich ganz persönlich zum Beispiel will eher wenig KI-Contents lesen, die interessieren mich begrenzt. Ich will journalistische Inhalte lesen, von denen ich weiß, dass sie aus einer Quelle stammen, der ich vertraue und zu der ich eine Beziehung habe. Jetzt bin ich natürlich als Medien­kundin schon ein bisschen älter als andere. Aber auch bei Jüngeren, bei denen, die auf TikTok und anderswo Opfer werden von wildesten Manipulationen und Fake News, gilt: Es ist noch nie so wichtig gewesen, klar zu unterscheiden zwischen wahr und falsch. Und klar zu machen, aus welchen Quellen etwas stammt. Und dazu gehört für mich auch, dass man angibt, wenn etwas KI-generiert ist.

Wie könnte ein ethisch vertretbarer Einsatz von KI in der Werbung aussehen?
Es gibt ja bereits lange Diskussionen darum, wie ein ethisch vertretbarer Einsatz von Werbung aussieht. Auch da geht es darum, wie man etwas kennzeichnen muss, beispielsweise aktuell als Influencer, im Digitalen und in Social Media. Im Print muss ja auch Anzeige darüber stehen. Da macht KI den Kohl erstmal gar nicht fett. Für mich gilt hier wieder die Transparenz­regel.

Könnte KI auch eine Chance sein, nicht nur für Journalisten, sich an den eigentlichen Kern des eigenen Berufs zu erinnern?
Wir als Ethikrat sagen, es gibt eine Pflicht zur Weiter­entwicklung von KI-Anwendungen, wenn die Dinger etwas im realen Leben besser als wir machen, und das auch durch Forschung ausreichend belegt ist. Wenn sie unsere Fehler und Ungenauigkeiten vermeiden, wenn sie unsere Handlungs- und Entfaltungs­möglichkeiten verbessern. Gleich­zeitig sagen wir: Es kann trotzdem Gründe geben, warum wir bestimmte Dinge immer in menschlicher Hand halten wollen, selbst wenn eine KI einzelne Aufgaben besser kann. Also muss man sich überlegen: Was können und wollen wir delegieren? Und was nicht? Und vor allem – warum? Wir empfehlen, dass immer Menschen am Ende im Sattel bleiben. Aber wie genau das aussieht, das kann man nicht pauschal vorgeben, auch kein Ethikrat. Das müssen die Berufe selbst tun.

Welchen Teil Ihres Jobs als Vorsitzende des Ethikrats wird nie eine KI übernehmen – und welchen vielleicht schon?
Da maße ich mir keine konkrete Vorhersage an – Teile vermutlich der meisten Jobs, also auch von Ehren­ämtern wie dem Ethik­rats­vorsitz, können vermutlich zukünftig ersetzt werden, etwa in der Textarbeit. Der Posten ist aber so vielgestaltig und in der Tätigkeit auch so unvorher­sehbar, dass ich mich zumindest traue vorher­zusagen, dass das Amt noch lange in menschlicher Hand bleiben muss – vor allem aber bleiben sollte.

Dieses Interview ist Teil der Themenwoche KI in der Kommunikation.

Header-Foto: Jens Jeske/ Deutscher Ethikrat; Foto im Text: Thomas Lohnes / dpd-bild / Picture Alliance

    • Habemus Kino: Sehenswerte Filme und Serien zur Papstwahl.

      Ob Spannung, Historie oder Humor – diverse Produktionen haben sich schon dem Konklave gewidmet und leben gerade in den Streaming-Diensten wieder auf. Welche Filme und Serien die Wartezeit auf das neue Kirchenoberhaupt verkürzen, hat Mario Trifunovic für unserer Reihe NewsKNAcker, die wir in Koop...
      weiterlesen
    • “Ein Privileg, das verpflichtet” – RTL-Chef Stephan Schmitter zu 75 Jahren ARD.

      Schmitteinander: Stephan Schmitter gratuliert der ARD per Gastbeitrag in epd Medien zum 75. Geburtstag. Neben warmen und lobenden Worten hat der RTL-Deutschland-Chef auch Kritik in seinem Geschenke-Paket. Er lobt etwa Kooperationen wie zum ESC und wünscht sich mehr Zusammenarbeit, auch bei teure...
      weiterlesen
    • „Wir sind der größte Teil des Audiomarktes“ – Warum sich das klassische Radio vor Spotify nicht verstecken muss

      – Sponsored Post – Kai Fischer, Chef von Audiotainment Südwest, spricht im „Meedia“-Interview Klartext: Während andere schon die Sargnägel fürs klassische UKW-Radio bereitlegen, betont er, was Streaming-Dienste vergeblich versuchen – und das Radio perfektioniert hat: „Eine Playlist ersetzt...
      weiterlesen
    • Ohren auf: Was Stimme und Sprechweise über Menschen verraten.

      Die Stimme spricht Bände, oft lauter als Worte. Wer sie bewusst einsetzt, gewinnt an Ausstrahlung und setzt auf die Macht des gesprochenen Wortes. Sabine Schüller hat sich in unserer Reihe NewsKNAcker, die wir in Kooperation mit der KNA veröffentlichen, von zwei Expertinnen erklären lassen, was ...
      weiterlesen
    • Perfect Match: Wie die Ad Alliance Podcast-Werbung mit Podcast-Inhalten synchronisiert.

      Die Ad Alliance von RTL Deutschland nutzt eigens erstellte KI-Briefings, um Werbung in Podcasts genau dann einzuspielen, wenn sie thematisch zum Inhalt passt. Damit gehe die Ad Alliance noch einen Schritt weiter als andere Vermarkter, die Podcasts als Ganzes nach gewissen Themen einstufen. Werbe...
      weiterlesen
    • Kurz und KNAckig: Warum der “televisionäre Konservatismus” noch üben muss.

      Das neue ARD-Reportage­magazin “Klar” muss beim “televisionären Konservatismus” “‘klar’ noch üben”, schreibt Steffen Grimberg, Leitender Redakteur des KNA Mediendienstes, in unserer Kolumne Kurz und KNAckig. Beim Versuch, “eine nicht nur gefü...
      weiterlesen
    • Kurz und KNAckig: Die Informationsfreiheit zwischen den Rädern der Koalition.

      Aus Philipp Amthors Rhetorik “trieft das Misstrauen gegenüber der Zivilgesellschaft, den Medien und den Bürgern”, schreibt Jana Ballweber zur Forderung der Union nach einer Abschaffung des Informationsfreiheitsgesetzes. Angesichts der “Beziehung voller Missverständnisse” ...
      weiterlesen
    • Studiencheck: Was können die ÖRR-Gremien besser machen?

      Die ÖRR-Aufsichtsgremien haben mehr Parteimitglieder, als vom Verfassungsgericht vorgesehen ist, sagt eine Studie der Otto-Brenner-Stiftung von Medienjournalist Peter Stawowy. Der Medienwissenschaftler Dominik Speck promoviert zum Thema Transparenz des ÖRR im europäischen Vergleich und ordnet di...
      weiterlesen
    • Überpräsente Presenter: Kulturfernsehen bei ARD und ZDF.

      Kultur und Bildung sind seit der Gründung der öffentlich-rechtlichen Sender wesentliche Säulen des Auftrags und damit des Programms. Mit dem Dritten Medienänderungsstaatsvertrag, der am 1. Juli 2023 in Kraft trat, hat die Medienpolitik den Kulturauftrag von ARD und ZDF auf dem Papier aufgewertet...
      weiterlesen
    • Phubbing & Doomscrolling: Brauchen wir ein Schulfach gegen Internetsucht?

      Immer mehr Kinder haben ein problematisches Internetverhalten, sagt eine neue Studie. Ärzte und Lehrer fordern die Einführung eines Schulfachs für Medienbildung. Die Bildungsminister der Länder befassten sich zuletzt auch mit einem Handyverbot auf dem Schulhof. Nina Schmedding hat sich für unser...
      weiterlesen

    Artikel-Navigation

    ← turi2 am Abend: Google, Sport1, Audio-MA. turi2 am Morgen: Informations­freiheits­gesetz, ProSiebenSat.1, Idealo. →

Werktags um 7 und 17 Uhr die wichtigsten News aus Medien, Marketing und PR als Newsletter. Jetzt abonnieren!

Loading...

Suchen auf turi2.de

Banner turi2 Themenwoche

Generic selectors
Exact matches only
Search in title
Search in content
Search in posts
Search in pages
Impressum, Datenschutz, Mediadaten, FAQ, RSS-Feed, Termine
Dieses Blog läuft mit WordPress
  • home
  • faq
  • media
  • team
  • turi2.tv
  • edition
  • termine
  • köpfe
  • tags
  • abo
  • datenschutz