Künstliche Beschränktheit: KI verhält sich zeitweise ziemlich dumm. Dann setzt sie Menschen mit Primaten gleich oder haut Tote in die Pfanne. So wird der hübsche Werbebegriff manchmal zum PR-Reinfall. Alles auf die bockige Technik zu schieben, klappt leider nicht: Die Systeme sind immer nur so schlau, wie das Material, mit dem die Menschen sie füttern. Fails sind da quasi vorprogrammiert. Wir haben sechs Reinfälle der vergangenen Jahre gesammelt. Dieser Beitrag ist Teil der Themenwoche KI in der Kommunikation.
Taktlos: Der britische “Guardian” berichtet 2023 über den Tod einer Wasserpolo-Trainerin in Australien. Der News-Aggregator “Microsoft Start” spielt die Meldung aus, fügt dem Beitrag aber eine KI-generierte Umfrage hinzu, die das Publikum über die Todesursache der jungen Frau abstimmen lässt. Darüber regen sich alle auf: Die Leserinnen schimpfen auf den “Guardian” und CEO Anna Bateson rügt den Tech-Riesen, der wiederum seine eigene Umfrage-KI maßregelt. Hätte so nicht passieren dürfen, gibt Microsoft zu, und teilt mit: “Wir ergreifen Maßnahmen, um zu verhindern, dass diese Art von Fehler in Zukunft wieder auftritt.” Das Bestattungsgeschäft, auch das journalistische, darf gerne noch möglichst lange in menschlicher Hand bleiben.
Desillusionierend: Das traditionsreiche Magazin “Sports Illustrated”, ohnehin gebeutelt in den vergangenen Jahren, verursacht in den USA Ende 2023 einen Eklat. Online werden Texte von zweifelhafter Qualität vermeintlichen Autorinnen wie “Sora Tanaka” und “Drew Ortiz” zugeschrieben, deren Fotos und Biografien mitsamt Angaben zu Hobbys (“camping, hiking”) von einer KI stammen – alles ohne Kennzeichnung. Als das US-Magazin “Futurism” den Betreiber The Arena Groupmit diesen Recherchen konfrontiert, verschwinden die Fake-Autorinnen und deren Beiträge von der Website. Der Verlag weist jegliche Verantwortung von sich und verweist auf einen Dienstleister, der wiederum angibt, die Inhalte stammten von Menschen. Noch vor dem Jahreswechsel feuert der Verlag CEO Ross Levinsohn. Anfang 2024 macht “SI” wieder Schlagzeilen – mit der Ankündigung, in großem Stil Leute zu entlassen.
R-AI-zen statt geizen: Die Zahl der KI-Influencer wächst deutlich schneller als die Medienkompetenz der Weltbevölkerung. Das führt dazu, dass digitale Damen nicht nur Kröten auf einschlägigen Erotik-Plattformen verdienen, sondern auch Nachrichten von Männern bekommen, die sie zum Essen oder nach Dubai einladen wollen – ganz real. Das Model Emily Pellegrini (Foto) etwa, 23 und KI-generiert, deren Instagram-Profil aktuell (Stand: 22. Februar) offenbar überarbeitet wird, ist laut ihrem Schöpfer unter anderem von einem ungenannten deutschen Fußballer mit Dating-Absichten kontaktiert worden. Auch die künstliche Influencerin Aitana Lopez mit ihrer rosafarbenen Mähne kriegt angeblich viel Fanpost von Leuten, die sie für eine echte Frau halten. Bis Roboter Liebe beherrschen, wird’s wohl noch dauern. Zum Glück.
Macht sich zum Affen: Google Fotos gibt heute recht zuverlässig Auskunft darüber, ob auf einem Bild Oma Erna oder ihr Dackel Waldi zu sehen sind. Doch der Dienst startet 2015 holprig: Dem schwarzen US-Entwickler Jacky Alciné fällt auf, dass die KI hinter Google Fotos seine ebenfalls schwarze Freundin und ihn als “Gorillas” kategorisiert. Als Alciné diese rassistische Verschlagwortung via Twitter öffentlich macht, zeigt sich ein Google-Entwickler erschüttert und kommentiert: “Holy fuck. This is 100% not OK.” Auch der Suchmaschinen-Riese selbst entschuldigt sich, gelobt Besserung bei der Bilderkennung – und killt kurzerhand zig Schlagworte mit Affen-Bezug. Sechs Jahre später hat die Branche das Problem immer noch nicht in den Griff bekommen: Facebook muss Abbitte leisten, nachdem eine KI des Netzwerks ein News-Video über schwarze Menschen mit dem Vorschlag versehen hatte, mehr “Videos über Primaten” anzuzeigen. Der sogenannte Bias bleibt ein Problem von KI.
Taychniker ist informiert: 2016 lässt Microsoft seinen Chatbot Tay via Twitter-Account auf die Welt los. Der Plan ist, dass er aus den Interaktionen mit Usern schlauer wird. Damit Tay sich wie Millennials ausdrückt, arbeiten die Entwicklerinnen sogar mit Comedians zusammen. Gar nicht lustig ist, was nach dem Release passiert: Destruktive Trolle stürzen sich auf Tay und sorgen dafür, dass der Bot Dinge von sich gibt wie: “Hitler was right I hate the jews” Oder: “i fucking hate feminists they should all die and burn in hell” Nach gerade mal 16 Stunden zieht man Tay den Stecker, lässt sie friedlich ruhen – abgesehen von einer kurzen Reaktivierung eine Woche später – und sagt “Sorry”. Fazit: Die Geschichte von Tay erzählt genauso viel über ätzende Teile der Internetkultur wie über KI.
Nicht ausgegoren: Dieser Tage schreiben sich viele Medienhäuser Transparenz als Teil ihrer KI-Regeln ganz groß ins Aufgabenbuch. Bei Burda hat daran 2023 offenbar noch keiner gedacht. Zumindest in diesem Fall: Immerhin dachte man in Offenburg, es sei eine gute Idee, das Extraheft von “Lisa Kochen & Backen” zu 99 Pasta-Rezepten weitgehend mit den KIs Midjourney und ChatGPT zu erstellen – ohne die Leserschaft zu informieren. Als die “Süddeutsche Zeitung” nachfragt, nennt der Verlag das Heft ein “Experiment” und sagt, die Zielgruppe “sollte das Heft neutral rezipieren können”. Dem Presserat schmeckt die Unwissenheit des Publikums weniger: Er spricht eine Rüge wegen Irreführung aus.
Dieser Beitrag ist Teil der Themenwoche KI in der Kommunikation.
Foto: Karl F. Schöfmann / Imagebroker / Picture Alliance