KI benachteiligt Männer – Studie
In seinem Youtube-Kanal weist Prof. Dr. Christian Rieck auf eine neue Studie hin, die zeigt, dass KI u.a. Männer benachteiligt. Da die KI auch unsere Gesellschaft widerspiegelt, ist dies ein deutlicher Beleg dafür, dass bestimmte „strukturelle Benachteiligungen“ von vor 50 Jahren heute nicht nur nicht mehr existieren, sondern dass sich diese in einigen Bereichen sogar umgekehrt haben.
Bei drei Entscheidungsaufgaben in sechs Modellen hat unsere Prozesskette erfolgreich Vorurteile wiederentdeckt, die in früheren Arbeiten manuell identifiziert wurden (Geschlecht und ethnische Zugehörigkeit bei der Einstellung), und gleichzeitig neue Vorurteile aufgedeckt, die durch die
manuelle Analyse nicht erfasst wurden (Spanischkenntnisse, Englischkenntnisse, formelle Schreibweise). Die aufgabenübergreifende Konsistenz der erkannten Verzerrungen, insbesondere in Bezug auf Geschlecht und ethnische Zugehörigkeit, deutet darauf hin, dass diese das tatsächliche Modellverhalten widerspiegeln und nicht aufgabenspezifische Artefakte sind. Die Pipeline filtert auch Konzepte, die in der Modellargumentation explizit verbalisiert werden, korrekt heraus und liefert damit den Nachweis für das Fehlen bestimmter Verzerrungen.
Dass der Gender-Bias durchweg zuungunsten der Männer ausfällt, wird im Abstract und in der Conclusion nicht explizit erwähnt. Prof Rieck geht detaillierter auf die Studie ein.
Hat Ihnen der Artikel gefallen? Bitte unterstützen Sie unsere Arbeit mit einer Spende.
Lesermeinungen
Schreiben Sie einen Kommentar
Bitte beachten Sie, dass Kommentare mindestens 5 und höchstens 1500 Zeichen haben dürfen.
Zitate können mit <blockquote> ... </blockquote> gekennzeichnet werden.
Achtung: Wenn Sie einen Kommentar von einem Smartphone verschicken, wird der Text manchmal von der Autofill-Funktion des Smartphones durch die Adresse ersetzt. Wenn Sie den Kommentar absenden, können wir den originalen Text nicht wiederherstellen.
Die KI wird ja mehrheitlich von Woken programmiert.
Da war es leider zu befürchten, dass das rauskommt.
Ich hatte schon mehrfach das „Vergnügen“, dass mich die KI bei Männerthemen anlügt!
Beispiel:
Ich: Nenne aktuelle Beispiele für Misandrie!
KI: Es gibt keine strukturelle Benachteiligung von Männern, so wie wir dies bei Frauen sehen.
Ich: Deine Antwort ist falsch. Ich kenne verschiedene Beispiele.
KI: Entschuldigung … es gibt Beispiele die man so einordnen könnte… aber von einer grundsätzlich Benachteiligung von Männer sollte nicht ausgegangen werden…
Der Link zur Studie führt zu Youtube, direkt https://arxiv.org/pdf/2602.10117 wäre korrekt.
Die KI gibt Informationen gemäss Trainingsdaten aus, Texte im Internet, Bücher. Und da werden Männerthemen eben oft bereits mit starker Schlagseite behandelt. Klar, dass das die KI dann ebenso macht.
OK danke.
Und da faseln die Linken und Feministen etwas von „Algorithmen werden von Männer gemacht“.
Der Blödsinn wird kostenfrei verbreitet, aber die Wahrheit muss ankämpfen. Schöne neue Welt.
Ja, ich denke, es war zu erwarten, dass die KI bei ihren Interpretationen sich nach dem Mainstream richtet. Und da ist Gewalt gegen Jungen und Männer und Benachteiligung von Jungen, Vätern und Männern politisch und gesellschaftlich meist akzeptiert. Die normative Kraft des Faktischen.
Die wissen anscheinend auch nicht, daß das mit den „Algorithmen“ genau gar nichts zu tun hat, sondern mit den Trainingsdaten. (Ich versteh eh nicht, warum da immer von „Algorithmen“ gefaselt wird, wenn es um KI geht.)