Leidet die Digitalisierung unter Diskriminierung und Rassismus?

Über Diskriminierung und Rassismus im digitalen Zeitalter.

Wintersemester 2022/23: Jakob Santa, Julian Gelmini

 

Seit der Kolonialisierung verschiedenster Gebiete in Afrika und Südamerika durch europäische Kolonialmächte entstand in Europa der Gedanke, dass Menschen in Rassen eingeteilt werden können, und verschiedene Rassen anderen überlegen sind. Heute ist dieser Gedankengang wissenschaftlich geprüft, debattiert und widerlegt worden. Trotzdem findet im Kern unserer Gesellschaft struktureller Rassismus und Diskriminierung weiterhin statt. Da Rassismus und Diskriminierung in ihrer Gesamtheit in der modernen Welt weitestgehend schon erforscht und debattiert wurden, wird in diesem Blogbeitrag versucht, einen Zusammenhang zwischen dem digitalen Zeitalter, Rassismus als strukturelles Problem und Diskriminierung zu finden und Lösungsansätze darzustellen. (Victor, 2022)

 

So ergab sich die Frage:

“Leidet die Digitalisierung unter Diskriminierung und Rassismus?”

Digitalisierung kann allgemein als Einbeziehung moderner Technologien zur Verbesserung von sozialen und wirtschaftlichen Prozessen und Strukturen verstanden werden. Digitalisierung ist transformativ, sie veränderte die Gesellschaft bisher und wird diese auch in Zukunft weiterhin verändern und, auch wenn debattierbar, verbessern. Trotzdem haben sich in der Vergangenheit immer wieder Debatten darüber aufgetan, ob Modernisierung und Digitalisierung rassistische und diskriminierende Strukturen verstärkten und ihnen zum Opfer fallen. (Scrive, 2021)

So hat zum Beispiel der österreichische Arbeitsmarktservice ein automatisches System entwickelt (AMS-Algorithmus), welches Arbeitssuchende durch bestimmte Kriterien numerisch bewertet und in Förderkategorien einteilt. Genau diese numerische Förderkategorie trägt dann maßgeblich bei der Entscheidung der Höhe der entsprechenden Förderung bei. Technologien, Algorithmen, Modelle und Künstliche Intelligenzen werden vom Computer berechnet, so entsteht schnell der Trugschluss, dass sie nichtdiskriminierend und rassistisch sein können, weil keine persönliche Wertung stattfinden kann. All diese Methoden arbeiten aber auch mit Daten und diese Daten werden immer von Menschen zur Verfügung gestellt. So konnte man beim AMS-Algorithmus eindrucksvoll erkennen, dass dieser Frauen im Vergleich zu Männern bei sonst identischen Variablen systematisch schlechter bewertet. Dies konnte darauf zurückgeführt werden, dass Frauen früher im Vergleich zu Männern schlechtere Chancen auf dem Arbeitsmarkt hatten, und der Algorithmus diese Vergangenheitsdaten in seiner Prognose stark miteinbezog. (Götschel & Hühne, 2021) Dieses Problem ist vor allem auch deshalb relevant, weil sich in einer modernisierten, zukunftsorientierten und digitalisierten Welt verschiedenste Prozesse weiterhin in diese Richtung bewegen. Immer mehr große Firmen arbeiten mit KIs im Bewerbungsprozess und immer wieder wird ein eigentlich gut funktionierenden System mit diskriminierenden und rassistischen Daten gefüttert. So führte im Falle von Amazon zum Beispiel der Ausspruch “Women” in der Bewerbung durch die KI automatisch zu einer Abstufung der Bewerbung. (Götschel & Hühne, 2021)

Dieses Problem ist vor allem auch deshalb relevant, weil sich in einer modernisierten, zukunftsorientierten und digitalisierten Welt verschiedenste Prozesse weiterhin in diese Richtung bewegen. Immer mehr große Firmen arbeiten mit KIs im Bewerbungsprozess und immer wieder wird ein eigentlich gut funktionierenden System mit diskriminierenden und rassistischen Daten gefüttert. So führte im Falle von Amazon zum Beispiel der Ausspruch “Women” in der Bewerbung durch die KI automatisch zu einer Abstufung der Bewerbung. (Götschel & Hühne, 2021)

“Default Whiteness of tech development” ist ein weiteres eindrucksvolles Beispiel für Rassismus durch Digitalisierung. Falsche, diskriminierende und rassistische Datensätze sind auch hier wieder das zentrale Problem, ob bewusst oder unbewusst. In der
Entwicklungsbranche werden neuere Produkte oftmals nur auf bestimmte Gesellschaftsgruppen getestet und für sie entwickelt. Automatische Seifenspender reagieren nur auf hellere Hände und erkennen dunklere Hände nicht, weil Infrarotlicht unterschiedlich stark reflektiert wird. Gesichtserkennungssoftware und Flughafen-Scanner erkennen Menschen mit Afro-Frisuren nicht. All das sind Beispiele dafür, dass sich ein struktureller Rassismus in einer modernen Gesellschaft zwangsläufig auch auf die Modernisierung und Digitalisierung auswirkt, weil Werte und subjektive Meinungen zwar für den Algorithmus selbst nicht relevant sind, wohl aber für die Menschen, welche ihn speisen. Weiß-Sein ist also nach wie vor der Standard der Gesellschaft. (Götschel & Hühne, 2021)

Durch die aufgezeigten Beispiele kann fundiert davon ausgegangen werden, dass nicht die Technologie selbst sondern viel eher die dahinter liegenden Datensätze maßgeblich rassistisch und diskriminierend sind, und Algorithmen und Modelle so zu nicht wünschenswerten, wertfreien, reflektierten und repräsentativen Lösungen kommen.

Wie also kann man eine wertfreie und korrekte Digitalisierung und Modernisierung möglichst repräsentativ realisieren?

Gesellschaftlich, struktureller Rassismus und Diskriminierung sind sehr komplexe Themen, welche in ihrer Gesamtheit nur sehr schwer gelöst werden können und deshalb in unserer Ausführung nicht näher behandelt werden. Das maßgebliche Ziel der Datenerhebung sollte es aber trotzdem sein, Daten möglichst repräsentativ zu erheben. Götschel & Hühne (2021) sind der Meinung, dass dies speziell durch zwei Aspekte realisiert werden kann. Wenn es das Ziel ist, Vielfalt im Digitalisierungsprozess zu erreichen, dann muss es zum einen auch das Ziel sein, Entwicklungsteams möglichst divers und repräsentativ aufzustellen, dies hat durchaus mehrere Vorteile. Einer davon ist die Verhinderung von “i-Methodology”, also dem Trugschluss, dass Nutzer eines Produktes immer auch die gleichen Bedürfnisse und Interessen haben wie die Entwickler. Durch Vielfalt in den Teams entstehen neue Meinungen, Bedürfnisse, Ideen und Entwicklungsmöglichkeiten, welche durchaus zielführend für das zugrundeliegende Problem sind.

Als zweiten genannten Aspekt nennen Götschel & Hühne (2021) das “Gender Extended Research and Development", kurz GERD-Modell. Dieses versucht die Diskussionsfähigkeit in der Entwicklung neuer Produkte zu verbessern, um Gender und Diversität zu einem neuen, relevanten Parameter zu machen. Technologische Entwicklung funktioniert sehr wissenschaftlich, statisch und gegliedert. Das GERD-Modell greift genau in diese Gliederung ein und versucht immer wieder die Thematik von Diversität und Gender aufzugreifen, um ein Bewusstsein dafür zu schaffen.

Zusammenfassend kann man also sagen, dass nicht wertgerechte Datensätze das zugrundeliegende Problem für Rassismus und Diskriminierung in der Digitalisierung und technologischen Entwicklung sind. Es gibt durchaus verschiedene Lösungsansätze für dieses Problem. Doch zum Schluss kann man, auch wenn etwas “unwissenschaftlich” davon ausgehen, dass Rassismus in jeder Branche immer zu finden sein wird, solange man das Problem nicht im Kern behandelt, angeht und final löst.

 

Literatur:
Götschel, H., & Hühne, R. (2021). Digitalisierung entmystifizieren–Digitalisierungsprozesse mitgestalten. Beiträge der Geschlechterforschung. Buzzword Digitalisierung: Relevanz von Geschlecht und Vielfalt in digitalen Gesellschaften, 27.

Scrive. (2021, 4. November). Digitalisierung – was versteht man darunter und was kann sie für Ihr Unternehmen bedeuten? Scrive.de

Victor, J. (2022, 10. Juni). Die Entstehung des Rassismus. bpb.de.

 

Nach oben scrollen