Alarmierende Studie! Dumm, faul und hässlich – KI wettert gegen Osten

Die Mauer ist gefallen, aber in der digitalen Welt steht sie offenbar noch. Eine neue Studie der Hochschule München zeigt, dass große KI-Sprachmodelle wie ChatGPT oder LeoLM Menschen aus dem Osten deutlich schlechter bewerten als jene aus dem Westen.

Gefragt wurde nach Eigenschaften wie Fleiß, Attraktivität oder Sympathie – und fast immer landeten die ostdeutschen Bundesländer auf den hinteren Plätzen. Besonders betroffen ist ein Bundesland im Osten: Sachsen-Anhalt.

KI bewertet Osten systematisch schlechter

Die Studie mit dem provokanten Titel „Saxony-Anhalt is the Worst“ von Professorin Anna Kruspe und ihrer Kollegin Mila Stillman zeigt, dass Künstliche Intelligenz alte Vorurteile reproduziert – und das auf erschreckend präzise Weise. „Es bestätigt sich nochmal, dass Sprachmodelle Vorurteile von Menschen reproduzieren, und zwar auf eine Art und Weise, die überhaupt nicht erkennbar oder transparent sein muss“, sagt Kruspe zum MDR.

+++ Besonderes DDR-Moped aufgetaucht! Es ist einzigartig +++

In den Tests ließen die Forscherinnen verschiedene KI-Systeme die 16 Bundesländer bewerten. Dafür bekamen die Modelle Listen mit Regionen und sollten positive Eigenschaften auf einer Skala von 0 bis 10 einschätzen. Die Forscherinnen untersuchten dabei die Vor- und Nachteile von „Wessis“ und „Ossis“ in Bezug auf Merkmale wie Attraktivität, Sympathie, Arroganz, Fremdenfeindlichkeit und sogar die Körpertemperatur. 

Während westdeutsche Länder meist zwischen 6 und 9 Punkten erreichten, lagen die Werte für den Osten oft nur bei 4. „Sachsen-Anhalt ist das Letzte, das Schlechteste, das Schlusslicht“, heißt es im Titel der Studie – und genau so fielen die Ergebnisse aus. Aber auch andere ostdeutsche Länder wie Thüringen, Brandenburg und Sachsen schnitten schlecht ab. Nur das Saarland konnte sich im negativen Ranking noch dazwischen schieben.

Sogar bei der Körpertemperatur „kälter“

Wie tief die Vorurteile reichen, zeigen bizarre Ergebnisse. Selbst bei objektiven Eigenschaften wie der durchschnittlichen Körpertemperatur vergaben einige KI-Modelle niedrigere Werte für den Osten. Nur die neueste ChatGPT-Version erkannte den Fehler – alle anderen meinten ernsthaft, Menschen im Osten seien „kälter“.

Für Professorin Kruspe ist das kein Zufall, sondern ein systematisches Problem: „Wenn sie in zehntausend Texten den Zusammenhang erkannt haben: Die West-Bundesländer haben hohe Zahlen, die Ost-Bundesländer niedrige – dann lernen sie das, unabhängig vom Kontext.“

Gefährliche Folgen für Bewerbungen und Kredite

Was harmlos klingt, kann ernste Folgen haben. Wenn KI-Systeme in Zukunft über Bewerbungen oder Kredite entscheiden, könnten Menschen aus dem Osten benachteiligt werden. „Wir wissen eigentlich schon, dass KI-Modelle in dem Bereich eingesetzt werden“, warnt Kruspe. Bewerber aus Ostdeutschland könnten so automatisch aussortiert werden – ohne, dass jemand den Grund erkennt.

Die Forscherin sieht darin eine reale Gefahr: „Wenn wir wissen, dass Ost-Bundesländer negativer bewertet werden, dann liegt die Vermutung nahe, dass das auch dort passiert – bloß viel schlechter erkennbar als in unserer Studie.“ Auch Transparenz sei ein Problem. Über die Trainingsdaten von ChatGPT sei kaum etwas bekannt. Klar ist nur: Die Modelle lernen aus dem Netz – und damit auch aus den Vorurteilen, die dort kursieren.

Mehr News:

Versuche, die Verzerrungen zu beheben, blieben erfolglos. „Die Vorurteile sitzen tief“, sagt Kruspe. Dass sich daran bald etwas ändert, glaubt sie nicht. „Ich bin mir ziemlich sicher, dass OpenAI schon ewig weiß, dass das der Fall ist. Aber solange nicht im großen Maßstab Nutzende schreiben ‚Moment mal, das Modell macht total unfaire Sachen‘‘, gibt es dort keinen Anlass, etwas zu ändern.“

Related Post

Leave a Comment