• 5. April 2025

Hässlich und missgünstig: Die seltsame Forschung, die Stereotype zu Linken bestätigt [Studie]

ByMichael Klein

Apr. 4, 2025

Sie sind hässlich und verachten andere …
Die Rede ist von weiblichen Kandidaten, die für LINKE Parteien kandidieren.
Und obwohl es die tägliche Anschauung bestätigt, ist dieses Ergebnis eines, das am Ende eines wissenschaftlichen Beitrags steht, der schon 2023 veröffentlicht wurde, derzeit aber wieder die Runde durch die sozialen Netzwerke macht:

Die Studie, auf die sich John Rain in seinem Tweet vom 1. April 2025 bezieht, ist die folgende:

Wir denken, es ist in diesem Kontext hilfreich darzustellen, was Rasmussen et al. (2023) in ihrer Studie überhaupt gemacht haben. Denn obschon die Ergebnisse mit Sicherheit Stereotype bestätigen, die auf der täglichen Anschauung beruhen, stellt sich schon die Frage nach dem wissenschaftlichen Wert der Studie von Rasmussen et al. (2023).

Nun, Rasmussen et al. (2023) geht es mit ihrer Forschung zunächst gar nicht um die Inhalte, sie wollen vielmehr ein neuronales Netzwerk trainieren, denn:

„Deep learning techniques can use public data such as facial photographs to predict sensitive personal information, but little is known about what information contributes to the predictive success of these techniques. This lack of knowledge limits both the public’s ability to protect against revealing unintended information as well as the scientific utility of deep learning results.“

„Deep learning techniques“, also Formen der maschinellen Verarbeitung von Information, deren Ziel es ist, ein neuronales Netzwerk zu erstellen, um komplexe Probleme zu lösen, fänden wietgehende Verwendung, indes wisse niemand, wie genau diese Spielereien in der Lage seien, die Realität abzubilden. Die Autoren wollen diese Frage untersuchen, um u.a. der Öffentlichkeit die Möglichkeit zu geben, sich davor zu schützen, Informationen preiszugeben, die sie nicht preisgeben wollen.

Eine mehr als abstruse Fragestellung.
Und es wird noch abstruser, denn die Autoren aus Dänemark wollen als Information, die man nicht preisgeben will die ideologische Zuordnung analysieren, krude unterschieden nach links und rechts, vorherzusagen über das Gesicht und den Ausdruck, den es es bei 3.288 dänischen Kandidaten gefunden hat, die bei einer Kommunalwahl angetreten sind und deren politische Affiliation zu links oder rechts eindeutig ist.

Der Absicht, ideologische Zuordnung über das Gesicht einer Person mit „deep learning“ vorherzusagen entsprechend, verwenden die Autoren sehr viel Zeit darauf, die verschiendenen Datenbanken zu beschreiben, mit denen sie die Fähigkeit ihres Algorithmus trainiert haben, Gesichter zu klassifizieren, nach „Maskulinität“, nach „Attraktivität“, nach „emotionalem Ausdruck“. Und, weil bei KI oder neuronalen Netzwerken sich alles um die „Vorhersage“ dreht, wenden die Autoren, nachdem sie ihren Algorithmus trainiert haben, das resultierende neuronale Netzwerk auf die 3.288 Kandidaten lokaler Wahlen in Dänemark an, um deren ideologische Ausrichtung [dichotom: links versus rechts] vorherzusagen.

So einfach, wie sich die Autoren das vorstellen, geht es offenkundig nicht. Denn sie sind genötigt, die Kandidatenbilder auf die Gesichter zu reduzieren und bei männlichen Kandidaten alles, was sich oberhalb der Augen und unterhalb des Kinns befindet, wegzulassen, um überhaupt ein Ergebnis zu erreichen.

Ihr Algorithmus ist letztlich in der Lage 61% der 3.288 Kandidaten ideologisch korrekt auf Grundlage des Gesichtes zuzuordnen, eine Verbesserung um 11% gegenüber einer zufälligen Zuordnung und ein recht beachtlicher Fehler von 39%. In 4 von 10 Fällen liegt das neuronale Netzwerk der Autoren daneben.

SciFi-Support

Auch ScienceFiles muss finanziert werden.

Und es wird, angesichts stetig steigender Kosten, immer schwieriger, ScienceFiles zu finanzieren.

HELFEN Sie uns bitte dabei, den Laden am Laufen zu halten!

Es gibt drei Möglichkeiten, uns zu unterstützen:

Weitere Informationen finden Sie hier:

ScienceFiles-Unterstützung

Bei allen Unterstützern bedanken wir uns bereits an dieser Stelle sehr HERZLICH!

Die Ergebnisse, die derzeit die Runde im Internet machen, sind supplementäre Ergebnisse, von denen uns nicht wirklich klar ist, wozu sie notwendig sind, wenn es darum geht, „[to know] about what information contributes to the predictive success of these techniques. This lack of knowledge limits both the public’s ability to protect against revealing unintended information as well as the scientific utility of deep learning results.“

Sowohl die zugeschriebene Maskulinität, als auch die zugeschriebene Attraktivität, die die Autoren ihrem Algorithmus aufgegeben haben, zu bestimmen, als auch die Bewertung des emotionalen Zustandes hinter dem Gesichtsausdruck (80% sind glücklich, 19% neutral) stellen nicht wirklich Informationen dar, die man absichtlich verändern könnte und alle drei Variablen erweisen sich, entgegen der derzeitigen Rezeption im Internet als kurz vor bzw. jenseits von Junk.

Maskulinität leistet keinerlei Beitrag zur Bestimmung der politischen Ausrichtung eines Kandidaten in Dänemark. Ein Ergebnis, das nicht überrascht. Die eigene Anschauung und die vergebliche Suche nach (richtigen) Männern in der Politik ließ ein solches Ergebnis erwarten. Attraktivität, gemessen auf einer Skala von 0 bis 4 (je mehr umso besser) und im Durchschnitt 3,35 bei männlichen Kandidaten und 3,24 bei weiblichen Kandidaten, korreliert nur mit konservativen weiblichen Kandidaten. Indes liegt der Mittelwert dieser Messung bei einer Skalenbreite von 0 bis 4 soweit rechts, dass man kaum von einem sinnvollen Ergebnis ausgehen kann, was seinen Niederschlag in einem mickrigen Korrelationskoeffizienten von ,11 „[r = 0.11, 95% CI [0.042; 0.178]“ findet, d.h. es werden rund 1% der vorhandenen Varianz erklärt.

Das ist ein Nichtergebnis, das zudem mit Spearman’s r erreicht wird, einem Koeffizienten, der mindestens ordinales Skalenniveau voraussetzt, keine Normalverteilung der Grundgesamtheit zur Voraussetzung hat, und keine Linearitätsannahme macht, alles im Gegensatz zu dem weitaus gebräuchlicheren Pearson’s r, ein Koeffizient, der zudem die Angewohnheit hat, stets höhere Werte für den Korrelationskoeffizienten zu liefern als Pearson’s r. Die Autoren weisen ein Spearman’s r von .11 aus, womit die Frage, warum nicht Pearson’s r berechnet wurde, hinreichend beantwortet ist. Weniger als 1% erklärte Varianz sieht noch schlechter aus.

Dasselbe Nichtergebnis hat einen verächtlichen Gesichtsausdruck zum Gegenstand:

„However, we did observe that among women contempt was non-trivially correlated with a predicted probability of left-wing ideology (r = 0.12, 95% CI [0.05, 0.19]). „

Wir könnten an dieser Stelle wiederholen, was wir gerade geschrieben haben. Aber die Transferleistung ist so einfach, dass wir uns an dieser Stelle nicht wiederholen wollen.

Was bleibt unter’m Strich?

Publicity, die daraus resultiert, dass die Autoren zugegebener Maßen vorhandene Stereotype, die man jeden Tag, wenn man so masochistisch veranlagt ist, in eigener Anschauung bestätigen kann, bedienen.

61% erklärte Varianz im Hinblick auf die korrekte Zuordnung von 3.288 Kandidaten zu einer dichotomen Variable. Um dem Ganzen einmal Zahlen zu geben: Per Zufall würde man die richtige Klassifikation von 1.644 Kandidaten erwarten. Die Autoren sind in der Lage 2.006 Kandidaten richtig zuzuordnen, d.h. sie sind nicht in der Lage 1.282 Kandidaten korrekt zuzuordnen.

Ein schlechtes Gefühl: Denn eine Studie, deren Ziel es ist, eine KI zu trainieren, damit sie in der Lage ist, die politische Affiliation von Personen aus dem Gesicht zu erschließen, lässt zumindest uns, in den derzeitigen totalitären Zeiten mit einem ganz schlechten Bauchgefühl zurück, vor allem, wenn man die möglichen Anwendungen für eine solche KI, Aussortieren von Personen, die das Gesicht eines Rechten haben, aus Stellenbewerbern, Angestellten, Studienplatzbewerbern und vielem mehr in Rechnung stellt.

Dass die Studie nun ausgerechnet in den Netzwerken die Runde macht, dort zum Teil freudig aufgenommen wird, die man mit wenig Phantasie als die Netzwerke ansehen kann, die Ziel solcher KI sind, ist in gewisser Weise eine bösartige Ironie.

Die einzige Ansatzweise kritische Besprechung, die wir gesehen haben, stammt von Hadmut Danisch.

Indes 61% erklärte Varianz weisen darauf hin, dass noch ein sehr langer Lernweg vor der KI von Rasmussen et al. liegt, ehe sie daraus Geld machen können.


Falls Sie unsere Arbeit unterstützen, und dafür sorgen wollen, dass bei ScienceFiles auch weiterhin das Rad rund läuft, dann kaufen Sie uns doch einen Kaffee:
Oder unterstützen Sie uns auf einem der folgenden Wege Unser herzlicher Dank ist Ihnen sicher! DENN: ScienceFiles lebt von Spenden. Helfen Sie uns, ScienceFiles auf eine solide finanzielle Basis zu stellen, damit Sie uns auch morgen noch lesen können!


Wir haben drei sichere Spendenmöglichkeiten:

Donorbox

Unterstützen Sie ScienceFiles


Unsere eigene ScienceFiles-Spendenfunktion

Zum Spenden einfach klicken

Unser Spendenkonto bei Halifax:

ScienceFiles Spendenkonto: HALIFAX (Konto-Inhaber: Michael Klein):

  • IBAN: GB15 HLFX 1100 3311 0902 67
  • BIC: HLFXGB21B24

Folgen Sie uns auf Telegram.


Anregungen, Hinweise, Kontakt? -> Redaktion @ Sciencefiles.org


Print Friendly, PDF & Email

Zur Quelle wechseln
Author: Michael Klein
Michael Klein

Teile den Beitrag mit Freunden