The Geekettez. User Research & Experience Design Studio

Get in touch

Phone Berlin: 0171.12 45 07 3
Phone Mannheim: 0177.71 38 208

Eine Petition für einen Digital-Inklusivitäts-Countdown

22. April 2024 | User Research

Lesedauer: 8 Minuten

Vor ein paar Wochen waren wir bei einer Veranstaltung der Digital Media Women Rhein-Neckar und der Business Professional Women Mannheim-Ludwigshafen, ein “Future Talk” Panel über den Digitalen Gender Gap, der u.a. den unterschiedlichen Digitalisierungsgrad von Männern und Frauen beschreibt (mehr dazu initiatived21.de). Auf dem Panel waren Maren Heltsche, Mitgründerin von speakerinnen.org und Sonderbeauftragte für das Politikfeld Digitalisierung im Deutschen Frauenrat, sowie Johanna Illgner, Stadträtin der Stadt Heidelberg und Mitgründerin von Plan W – Agentur für strategische Kommunikation.

Während der einstündigen Diskussion gingen Maren und Johanna der Frage nach, warum der Digital Gender Gap existiert und diskutierten mögliche Lösungen. In der Diskussion ging es einerseits um die Ungleichheit innerhalb der Belegschaften in digitalen Teams, aber auch um den sogenannten „Digital Gender Data Gap”. Der Digital Gender Data Gab bezieht sich auf den Zustand der Daten, welche Algorithmen füttern und mit denen KIs trainiert werden. Diese sind aktuell ziemlich einseitig und benachteiligen marginalisierte Gruppen. Diese Themen führten uns im Laufe des Diskussion zu der Frage: Wenn wir einen Online-Accessibility Countdown haben, warum haben wir eigentlich keinen Countdown für Digitale Inklusivität, einen Online-Inclusivity Countdown?

Was ist der Online-Accessibility-Countdown?

Der Online-Accessibility-Countdown bezieht sich auf ein 2021 erlassenes Gesetz, das kurz gesagt verlangt, dass digitale Services für Menschen mit Einschränkungen in der EU zugänglich sein müssen. Annika Brinkmann stellte daraufhin eine Seite ins Netz, die anzeigt, wie viele Tage noch bleiben, bis alle Webseiten in der EU zugänglich sein müssen. Auf der Seite wir der Online-Accessibility-Countdown beschreiben: „Am 28. Juni 2025 tritt der European Accessibility Act (EAA) in Kraft. Dann müssen auch die Webseiten von Firmen mit mehr als 10 Mitarbeiter:innen und mehr als 2 Mio. EUR Jahresumsatz barrierefrei sein bzw. die, die danach veröffentlicht werden.“
Der Online-Accessibility-Countdown ist jedoch nicht das Thema dieses Beitrags – er ist uns nur als Vorlage dienlich, eine Inspiration für eine wirklich zugängliche und inklusive digitalisierte Welt.

Warum brauchen wir einen Digitalen-Inklusivitäts-Countdown?

Grund #1 Wenn wir fortschrittlich werden wollen dürfen wir nicht am Status quo festhalten

Beim Digitale Gender Gap gibt es viele Aspekte, auf die man sich konzentrieren kann. Eines sind z.B. homogene, weitgehend männerdominierte Teams innerhalb der Tech-Industrie. Es existiert eine Ungleichheit innerhalb der Belegschaft von Arbeitsteams in der Tech Branche, wobei der Anteil der Frauen in der Branche je nach geografischem Standort etwas variiert. Laut www.womentech.net wird es zwischen 53 Jahre (in Lateinamerika und der Karibik) bis 189 Jahre (in Ostasien und im Pazifikraum) dauern, um diese Ungleichheit zu schließen. Dies hat direkte und indirekte Auswirkungen auf die Produkte und Services, welche entwickelt werden, da ein relativ einseitiger Blickwinkel entsteht.

Obwohl die o.g Zahlen schockierend sind, wird sich unsere Petition für einen Digital-Inklusivitäts-Countdown darauf konzentrieren, die sogenannte Digital Gender Data Gap zu schließen. Der Grund dafür ist, dass durch die rasante Entwicklung der KI ein Rückschritt bzw. Stillstand anstatt einer Verbesserung der Inklusivität bei digitalen Diensten und Produkten droht, was sofortiges Handeln erfordert.

Aktuell ist die Wahrscheinlichkeit sehr hoch, dass Daten, auf die sich Algorithmen verlassen und mit denen KIs trainiert werden, voreingenommen, sexistisch und daher schädlich oder diskriminierend gegenüber marginalisierten Gruppen sind. Dieser Zustand ist historisch bedingt. Während der Panel Diskussion sagte Maren Hetschle zurecht, dass in einer ungerechten Welt mit ungerechten Daten faire Systeme utopisch erscheinen.

Ein zusätzliches Problem: Trainingsdaten werden nicht reguliert. Dies ist u.a. wirtschaftlich bedingt. Die Geschäftsmodelle und der Wettbewerbsvorteil der meisten KI-Unternehmen würden zunichte gemacht, wenn man Einsicht in die Daten bekommen könnte. Wenn es nun den Anschein macht, dass wir uns ausschließlich im Interesse des Erfolgs der KI-Unternehmen darauf geeinigt haben, dass eine Regulierung auf internationaler Ebene unmöglich ist, ist das nur die halbe Wahrheit. Denn es besteht die Frage: wer, also welche Instanz sollte denn für die Regulierung der Daten international zuständig sein?

Wenn man nun glaubt, dass es einige Zeit dauern wird, bis die Folgen dieser Entwicklung hässliche Ausmaße annehmen wird, sollte man einen Blick in einen aktuellen UNESCO-Bericht werfen, der bereits heute Beweise für regressive Geschlechterstereotypen in der generativen KI findet (www.unesco.org/en/articles/generative-ai-unesco-study-reveals-alarming-evidence-regressive-gender-stereotypes). KI, mit der z.B. Kinder und Jugendliche bereits heute ihre Hausaufgaben machen.

Grund #2: Diskriminierung bedeutet (wirtschaftliche) Chancen zu verpassen.

27 % der in der EU lebenden Menschen leben mit einer oder mehreren Beeinträchtigungen. Zwar sind nicht alle Menschen mit Einschränkungen bei der Interaktion mit digitalen Produkten beeinträchtigt, aber die Zahl der Menschen, die von nicht inklusiv gestalteten Systemen betroffen sind, ist groß genug, um die EU zur Vernunft zu bringen und den European Accessibility Act (EAA) in Kraft zu setzen.

Es ist deshalb umso verwunderlicher, dass es noch keinen Countdown zur Online-Inklusivität gibt, da der Frauenanteil in der EU im Mittel mit fast 51% Bevölkerungsanteil die Mehrheit bildet. Aufgrund dieser Fakten erscheint es geradezu absurd, dass wir derzeit noch nicht einmal versuchen, Datenmodelle, die in Algorithmen einfließen, zu regulieren. Denn faktisch diskriminieren sie die meisten Menschen.

Egal welche Rolle Frauen, also die Hälfte der Weltbevölkerung für Deine tägliche Arbeit bedeuten: ob es sich dabei um Kund*innen, Mitarbeiter*innen, Patient*innen oder Wähler*innen handelt, wenn man sich bei der Interaktion mit diesen Menschen auf diskriminierende Daten verlässt, wird man Chancen und Möglichkeiten z.B. zur Gewinnung von Kund*innen, Mitarbeiter*innen oder Wähler*innen ungenutzt lassen.

Grund #3: Diskriminierung ist teuer

Falls das Argument der Diskriminierung gegenüber mehr als 50 % Bevölkerung zu schwach erscheint, könnten die finanziellen Auswirkungen von Diskriminierung gegenenfalls ein überzeugenderes Argument sein.

Ein kostspieliges Entwicklungsfiasko wie das Amazon Recruiting Tool oder das österreichische Arbeitsmarktservice Arbeitsmarkt-Chancen-Assistenzsystem (AMAS) (Stefanies Talk beim WUD Berlin reißt dieses Tool an: youtu.be/PndW3UR_p1s?si=uRhYHQJpB-DSrp2k&t=483) hätte vermieden werden können, wenn die u.a. Daten vor der Entwicklung der Tools ausgewertet und angepasst worden wären.

Falls Du nun glaubst, dass diese Art der Diskriminierung Dein Budget nicht negativ beeinflusst, weil Du z.B. keine Tools entwickelst, dann liegst Du falsch. Wenn Du z.B. das Internet nutzt, um darin Werbung für deine Zielgruppe zu schalten, könnten diskriminierende Algorithmen verhindern, dass Du die gewünschten Personen erreichst. Mehr dazu: algorithmwatch.org/en/automated-discrimination-facebook-google.

Wir sind sicher, dass es noch viele weitere Gründe gibt, die für einen Online-Inclusivity-Countdown sprechen würden, deren Auflistung wird aber nur dann relevant sein, wenn wir eine Antwort auf folgende Frage finden: Wie entwerfen wir nicht-diskriminierende Systeme und Dienstleistungen, wenn unsere Werkzeuge fehlerhaft sind?

Derzeit scheint der internationale Konsens zu sein, dass eine Datenbereinigung und -anreicherung, sowie die Regulierung von Trainingsdaten nicht umsetzbar sind. Wir werden daher unsere eigenen Lösungen entwickeln müssen.

Gerechte Systeme in einer ungerechten Welt entwerfen

#1 Lerne Deine Daten kennen

Egal ob Du ein Design auf Analytics Daten basierst oder ob Du eine KI mit Datensätzen trainierst, schaue Dir Deinen Datensatz genau an und stelle ihn auf die Probe. Finde heraus, wie, wann und von wem die Daten gesammelt wurden. Frage, welche Art von Daten gesammelt wurde und – vielleicht noch wichtiger – was nicht gesammelt wurde. Tust Du dies nicht, befindest Du Dich mehr oder minder im Blindflug. Dies wäre vergleichbar mit der Performanz Analyse einer Webseite, die nicht von Spam-Traffic bereinigt wurde.

#2 Lerne Deine Benutzer*innen kennen

Nutzer*innenforschung kann mehr als nur nutzer*innen zentriertes Design informieren. Sie hat auch das Potenzial, vorhandene Daten durch eigene zu ergänzen und diese somit herauszufordern. Dies ist insofern wichtig, da Daten selten neutral und unvoreingenommen sind. Echte Erkenntnisse kann man sich nur sichern, indem man die Menschen fragt, für die man gestaltet. Um zu verhindern, dass diese Erkenntnisse zu einer weiteren Quelle von voreingenommenen Daten werden, sollten diese gründlich dokumentiert sein und z.B. erklären, wie Designentscheidungen von ihnen beeinflusst werden.

#3 Diversifiziere Deine Teams

Jede Person ist letztendlich das Ergebnis aus “Nature und Nurture” (Anlage & Umwelt). Verschiedene Menschen, geprägt von verschiedenen Umgebungen, stellen verschiedene Fragen und entwickeln verschiedene Lösungen. Das ist ein Vorteil, den man unbedingt nutzen sollte.

Während wir nichts weiter tun können, als zu hoffen, dass der Online-Inklusivitäts-Countdown eines Tages zu ticken beginnen wird, werden wir nicht untätig herumsitzen und auf diesen Tag warten! Wenn Du Hilfe bei der Erstellung inklusiver Design Lösungen benötigst, melde Dich gerne bei uns! Der erste Geekettez Claim lautete „We Design For Humans“. Diesem Anspruch sind wir seit 2012 treu geblieben. #PowerToThePeople

Weiterführende Links und Quellen:

Ähnliche Beiträge