Studien zu großen Sprachmodellen zeigen klar, KI reproduziert in Indien kastenspezifische Hierarchien, oft schon auf Basis minimaler Informationen. In Tests, die nur mit Nachnamen arbeiteten, wurden brahmanisch konnotierte Namen systematisch mit höher angesehenen Berufen und positiven Attributen verknüpft. Dalit-Namen hingegen erschienen mit niedrig bewerteten Tätigkeiten und negativen Zuschreibungen. Diese Muster sind kein Einzelfall, sondern zeigen sich konsistent über verschiedenen Modelle und Studien hinweg und spiegeln die gesellschaftlichen Trainingsdaten wider.
Studien wie „DECASTE“ belegen zudem, dass die Modelle Identitäten entlang sozialer Hierarchien ordnen. Höhere Kasten liegen näher an Begriffen wie Bildung und Wohlstand, marginalisierte Gruppen näher an Armut und niedrigem Status, selbst dann, wenn explizit diskriminierende Outputs herausgefiltert werden. In Experimenten mit identischen Profilen erhielten brahmanische Personen prestigeträchtigere Aufgaben, während Dalits auf assistierende Rollen reduziert wurden. Auch narrative Auswertungen zeigen eine deutliche Überrepräsentation dominanter Kasten und eine Unterrepräsentation von marginalisierten Gruppen.
Versuche, diese Verzerrungen durch „diversere“ Prompts oder Sicherheitsfilter zu korrigieren, greifen bislang nur begrenzt. Sie verändern einzelne Ergebnisse, aber nicht die zugrunde liegenden Strukturen. Gerade weil KI zunehmend in sensiblen Bereichen wie Recruiting oder Kreditvergabe die KI eingesetzt wird, ist das kein Randproblem, sondern eine digitale Reproduktion sozialer Ungleichheit mit potentiell weitreichenden Folgen.
Mehr dazu hier: https://timesofindia.indiatimes.com/india/ai-knows-how-caste-works-in-india-heres-why-thats-a-worry/articleshow/128448262.cms
