“KI verdeutlicht die Mängel unserer Gesellschaft” – 3 fiese Fragen an Mina Saidze.
22. Februar 2024
Algorithmus für alle? Schon die Trainingsdaten für intelligente Systeme schließen Menschen aus, sagt KI-Expertin und Autorin Mina Saidze. In ihren Antworten auf “3 fiese Fragen” für die turi2-Themenwoche KI in der Kommunikation erklärt sie, warum Diversity in Tech keine Luxusdebatte ist und wieso nicht längst mehr Frauen Künstliche Intelligenz mitgestalten. Sie wirbt für eine ethisch verantwortungsvolle KI-Strategie als Wettbewerbsvorteil, mit dem Unternehmen “das Vertrauen der Kunden und der Öffentlichkeit gewinnen” können – und verrät, wie die in der Praxis konkret aussehen könnte.
1. Diversity ist ein Schlagwort, das gefühlt 2020 mal Trend war. Warum sollen wir das jetzt schon wieder durchkauen – diesmal unter dem Dach von KI?
Bei Diversity darf es nicht nur um die Vermarktung von rotem Lippenstift oder glamouröse Events unter dem Deckmantel von “Female Empowerment” gehen. Das ist leider das, was vor allem die Linked-in-Bubble darunter versteht. Wir müssen weg vom Bauchgefühl und Kommerzialisierung und hin zu einem evidenzbasierten Kulturwandel, wofür wir Zahlen, Daten und Fakten brauchen. Denn Datensätze bilden unsere gesellschaftliche Realität ab.
Aktuell wird im medialen Diskurs häufig von diskriminierenden Algorithmen gesprochen. Die Wahrheit ist jedoch komplexer: KI per se ist weder diskriminierend noch rassistisch noch sexistisch. Der Algorithmus lernt auf Basis von Trainingsdaten, eine Entscheidung zu treffen. Und genau da steckt der Wurm drin: In den Trainingsdaten sind bestimmte Gruppen, zum Beispiel Frauen, unterrepräsentiert.
Diskriminierung entsteht nicht erst durch KI, sondern durch menschliches Verhalten. Das Identifizieren und Neutralisieren von Bias ist nur eine oberflächliche Lösung; die Wurzel des Problems bleibt bestehen und erfordert weiterhin gesellschaftliche Veränderungen. Die schnelle Verbreitung von KI verdeutlicht die Mängel unserer Gesellschaft, und wir erkennen zunehmend die Dringlichkeit dieses Themas. Wir müssen ein Bewusstsein dafür schaffen, dass Rassismus ein strukturelles Problem ist und dass Gleichberechtigung noch nicht erreicht wurde. Dies sind keine nebensächlichen Aspekte, sondern klare strukturelle Probleme, die angegangen werden müssen. Und auch eine wichtige Fragestellung wurde zu lange verdrängt: Wie kann ich, wenn ich von algorithmischer Diskriminierung betroffen bin, dagegen vorgehen?
Synthetische Daten, die von KI generiert werden, bieten eine Möglichkeit, die Lücken in großen Datensätzen zu füllen und sicherzustellen, dass KI-Systeme auf der Grundlage vielfältiger Daten trainiert werden. Auch braucht es vielfältige KI-Teams. Als migrantische Frau in einem Tech-Team bin ich nicht automatisch Expertin in Gender- und Anti-Rassismus-Fragen. Dennoch steigt die Wahrscheinlichkeit, dass ich auf meine Perspektive und Bedürfnisse aufmerksam mache und diese bei der Entwicklung von KI berücksichtigt werden.
Diversity in Tech ist keine Luxusdebatte. Sondern es geht darum, wie unsere Welt von morgen aussieht.
2. Die KIs, die die Zukunft prägen, werden aktuell mehrheitlich von weißen Männern aus der Oberschicht programmiert. Warum hat der Feminismus diese digitale Revolution verschlafen?
Das war nicht immer so: Viele der ersten Computerpioniere waren Frauen. Beim Programmieren des ersten Computers des US-Militärs 1946 bestand die Gruppe zu über 50 % aus Frauen. Grace Hopper, Marine-Admiralin und Informatikerin, ermöglichte den USA, Atombomben zu modellieren. In den 80er Jahren nahm der Frauenanteil in der Informatik ab, als Computer als Spielzeug für Männer vermarktet wurden. Filme und Medien verstärkten dieses Bild.
Es gibt eine Vielzahl an Beispielen dafür, dass KI Sexismus reproduziert: Wenn ich als Frau eine Bildgenerator-KI wie Lensa AI Bilder von mir erstellen lasse, kann es sein, dass ich Pamela Anderson ähnlicher sehe als mir selbst. KI, die von Banken für die Kreditvergabe genutzt wird, benachteiligt Frauen systematisch.
Dass Frauen in den Trainingsdaten der KIs unterrepräsentiert sind, wird auch als Gender Data Gap bezeichnet. Die Vereinten Nationen gehen davon aus, dass 22 Jahre nötig sein werden, um den Gender Data Gap zu schließen. Im medizinischen Bereich kann es lebensbedrohliche Folgen haben, wenn geschlechtsspezifische Symptome bei der Anwendung von Bilderkennungsalgorithmen zur Krebsdiagnostik nicht angemessen erkannt werden oder Medikamente unzureichend auf die Bedürfnisse weiblicher Patientinnen abgestimmt sind. Dem “Women in AI”-Report von Deloitte zufolge sagten 63 % der Befragten, dass KI-Modelle immer verzerrte Ergebnisse liefern, solange das Feld eine Männerdomäne bleibt.
Was hindert aber Frauen daran, Gestalterinnen von Künstlicher Intelligenz zu sein? Eine BCG-Studie hat gezeigt, dass Frauen das Feld der KI als sehr abstrakt wahrnehmen. Das hängt auch oft mit der medialen Berichterstattung zusammen, wo nur kommuniziert wird, wie KI die Welt revolutioniert. Der Bezug zum Daily Business fehlt oft. Ein weiterer Grund ist, dass Frauen schon früh durch die Erziehung vermittelt bekommen haben, dass technische Bereiche eher Männersache sind und Kreativität, Sprachen oder soziale Berufe “typisch weiblich”. Mit lediglich 17 % Frauen in IT-Berufen in Deutschland ist es umso dringlicher, dass Frauen als Tech-Expertinnen in den Medien präsent sind. Denn: Seeing is believing.
3. Diskutieren und Kritisieren statt einfach mal machen: Was tust du, um in der KI-Branche nicht als typisch deutsche Bedenkenträgerin abgestempelt zu werden?
Die Tech-Industrie hat mir zu gesellschaftlicher Teilhabe, Anerkennung und sozialer Mobilität verholfen. Sie ermöglicht ein relatives Wohlstandsversprechen, ein Arbeiten ortsunabhängig und in Teilzeit. Daher ist sie für Frauen und soziale Aufsteiger wie mich besonders geeignet. Und ich möchte, dass dieses Privileg mehr Menschen in Deutschland und Europa zuteil wird. Nur so können KI-basierte Produkte auch besser, vielfältiger und gerechter werden.
Das bedeutet für mich auch, Gefahren wie Machtmissbrauch und Voreingenommenheit von KI nicht nur zu erkennen, sondern aktiv vorzubeugen. Deswegen setze ich mich seit Jahren für einen verantwortungsvollen Umgang mit Zukunftstechnologien ein.
Angesichts des EU AI Acts, der weltweit ersten KI-Verordnung, können gesellschaftliche, rechtliche und regulatorische Fragestellungen nicht mehr ignoriert werden. KI-Ethik darf kein Stiefkind sein! Sie muss von Anfang an in die KI-Strategie integriert werden, nicht als nachträglicher Gedanke. Für das Top-Management ist es entscheidend, klare Zuständigkeiten für KI-Ethik auf C-Level-Ebene zu verankern – sei es als Chief Technology Officer oder Chief Information Officer. Zusätzlich empfehlt es sich, eine spezialisierte Abteilung oder Projektleitung einzurichten, wie StepStone es umgesetzt hat. Tech-Mitarbeitende können dabei helfen, Bias- und User-Testing in die Produktentwicklung zu integrieren und synthetische Daten in der KI-Entwicklung zu nutzen, so dass alle Bevölkerungsgruppen angemessen repräsentiert sind. Unternehmen, die ethisch verantwortungsvolle KI-Systeme entwickeln, erfüllen nicht nur eine rechtliche Verpflichtung, sondern können das Vertrauen der Kunden und der Öffentlichkeit gewinnen.