1,8 Milliarden Menschen nutzen ChatGPT täglich. Was die wenigsten wissen: Hinter jeder Antwort des Systems stehen die Entscheidungen von gerade einmal 15 Menschen im Ethik-Komitee von OpenAI. Diese kleine Gruppe bestimmt, welche Werte und Vorurteile in das derzeit einflussreichste KI-System der Welt einfliessen.
In meiner Arbeit als KI-Engineer erlebe ich täglich, wie schwierig es ist, Vorurteile aus Systemen herauszuhalten. Ein Beispiel: Lässt man ChatGPT Texte über verschiedene Berufsgruppen generieren, werden Pflegekräfte fast immer als Frauen dargestellt, Bauarbeiter als Männer, und Führungskräfte überwiegend als weisse Männer mittleren Alters. Das System reproduziert damit genau jene gesellschaftlichen Stereotype, die wir eigentlich überwinden wollen.
Die Herausforderung liegt in der Frage: Soll KI die Welt abbilden, wie sie ist, oder wie sie sein sollte? Wenn 97% der Pflegekräfte Frauen sind, ist es dann "Bias" oder einfach Realitätsabbildung, wenn das KI-System überwiegend weibliche Pflegekräfte darstellt? OpenAI hat sich entschieden, aktiv gegenzusteuern und erzwingt in vielen Bereichen eine ausgewogene Darstellung – eine gut gemeinte, aber nicht unproblematische Intervention.
Besonders kritisch wird es bei historischen Themen. Wenn KI-Systeme in der Darstellung historischer Ereignisse Diversität erzwingen, verwässern sie damit auch das Verständnis vergangener Ungerechtigkeiten. Ein Bildgenerierungssystem, das historische Szenen aus der Zeit der Sklaverei "diverser" darstellt, mag gut gemeint sein – verschleiert aber die brutale Realität der Unterdrückung.
Während OpenAI und Google ihre Systeme streng kontrollieren, entwickelt sich parallel eine Open Source Bewegung, die bewusst auf ethische Beschränkungen verzichtet. Diese "ungezähmten" Modelle werfen eine unbequeme Frage auf: Wer hat das Recht zu entscheiden, welche Werte ein KI-System vertreten soll?
Die aktuelle Dominanz westlicher Tech-Unternehmen führt zu einer weiteren Form von Bias: Die in den USA entwickelten Systeme transportieren überwiegend westliche Werte und Normen. Was wäre, wenn das erste grosse Sprachmodell aus China oder dem arabischen Raum gekommen wäre? Mit welchen Werten und Vorurteilen würden wir dann täglich interagieren?
Als Technologe sehe ich keine einfachen Lösungen für diese Herausforderungen. Was wir brauchen, ist ein breiter gesellschaftlicher Dialog darüber, wie KI-Systeme mit Vorurteilen umgehen sollen. Dabei müssen wir akzeptieren, dass perfekte Neutralität eine Illusion ist – jedes System wird immer bestimmte Werte und Vorurteile transportieren.
Was wir aber tun können, ist Transparenz zu schaffen. Nutzer müssen verstehen, dass sie nicht mit einer neutralen, allwissenden Intelligenz interagieren, sondern mit einem System, das die Werte und Vorurteile seiner Entwickler widerspiegelt. Genau wie wir gelernt haben, verschiedene Zeitungen kritisch zu lesen und einzuordnen, müssen wir lernen, KI-Systeme und ihre inhärenten Biases zu verstehen.
Diese Episode von Attention Heads ist ein Beitrag zu diesem wichtigen Dialog. Hören Sie rein und erfahren Sie mehr über die versteckten Vorurteile in den Systemen, die zunehmend unseren Alltag prägen.
KI-Bias bezeichnet die systematische Voreingenommenheit in KI-Systemen, die zu diskriminierenden oder stereotypen Ausgaben führt. Beispielsweise stellt ChatGPT Pflegekräfte meist als Frauen und Führungskräfte als weisse Männer dar. Dies ist problematisch, weil es gesellschaftliche Stereotype verstärkt und zu realer Diskriminierung beitragen kann.
Voreingenommenheit entsteht durch verschiedene Faktoren: die Trainingsdaten, die gesellschaftliche Vorurteile enthalten können, die Entscheidungen der Entwickler und Ethik-Komitees (wie bei OpenAI), sowie die kulturelle Perspektive der entwickelnden Unternehmen. Bei ChatGPT werden diese Entscheidungen von nur etwa 15 Menschen im Ethik-Komitee getroffen.
Das OpenAI Ethik-Komitee, bestehend aus etwa 15 Personen, trifft zentrale Entscheidungen darüber, welche Werte und Vorurteile in ChatGPT einfliessen. Sie bestimmen, wie das System mit sensiblen Themen umgeht und welche ethischen Richtlinien implementiert werden. Dies führt zu aktiven Interventionen, wie der erzwungenen ausgewogenen Darstellung bestimmter Gruppen.
Während kommerzielle Anbieter wie OpenAI und Google ihre Systeme streng kontrollieren und ethische Beschränkungen implementieren, verzichten Open Source Modelle oft bewusst auf solche Kontrollen. Dies führt zu einer Debatte darüber, wer das Recht hat, über die ethischen Werte von KI-Systemen zu entscheiden.
Nutzer sollten sich bewusst sein, dass sie mit einem System interagieren, das die Werte und Vorurteile seiner Entwickler widerspiegelt. Wichtig ist ein kritischer Umgang mit KI-Ausgaben, ähnlich wie beim Lesen verschiedener Nachrichtenquellen. Transparenz über die Herkunft und Entwicklung der KI-Systeme ist dabei essentiell.
Die aktuelle Dominanz westlicher Tech-Unternehmen führt dazu, dass KI-Systeme hauptsächlich westliche Werte und Normen transportieren. Dies wirft die Frage auf, wie anders KI-Systeme wären, wenn sie in anderen Kulturkreisen wie China oder dem arabischen Raum entwickelt worden wären.
OpenAI versucht bei historischen Themen einen Balanceakt zwischen korrekter historischer Darstellung und dem Vermeiden von Diskriminierung. Dies kann problematisch sein, wenn beispielsweise bei der Darstellung historischer Unterdrückung durch erzwungene Diversität die tatsächlichen historischen Ungerechtigkeiten verschleiert werden.
Es gibt keine einfachen Lösungen, aber wichtige Ansätze sind: Erhöhung der Transparenz über KI-Systeme und ihre Voreingenommenheit, breiter gesellschaftlicher Dialog über ethische Richtlinien, diverse Entwicklerteams und Ethik-Komitees, sowie besseres Verständnis der Nutzer über die Grenzen und Vorurteile von KI-Systemen.
.
Copyright 2025 - Joel P. Barmettler