“Technology is not neutral. We’re inside of what we make, and it’s inside of us. We’re living in a world of connections – and it matters which ones get made and unmade”.
– Donna Haraway, 1997
Letztes Jahr waren wir mit einem Beitrag auf gleich zwei Veranstaltungen eingeladen – einmal der UIG Tagung im September 2021 als auch beim Berliner World Usability Day im November mit dem Thema „Vertrauen, Ethik und Integrität. Genau dieses Thema hat in den letzten Jahren viel Fahrt in der Tech Branche aufgenommen: Einmal der großdiskutierte Themenblock Inclusion und Diversity im Design sowie das in der Branche seit einigen Jahren verstärkt aufkommende Thema der Ethik bezogen auf digitale Technologien. Die Relevanz beider Themen hatten wir bereits kurz in unserem Post „Was kommt/bleibt 2020?“ diskutiert.
Technologisierung unseres Alltags als ein sozialer Prozess
Das eingangs genannte Zitat von Donna Haraway ist tatsächlich aktueller denn je, denn digitale Technologien sind allgegenwärtig und bestimmen in vielerlei Hinsicht unseren Alltag. Doch wer entscheidet eigentlich wie all diese digitalen Produkte und Services aussehen? Wer gestaltet und entwickelt diese Produkte/Services? Diese Fragestellung ist insbesondere deshalb relevant, da die Digitalisierung und somit die Technologisierung unseres Alltags nicht nur ein rein technologischer sondern eben auch ein sozialer Prozess ist. Technologie wird zwar gerne als „neutral“ oder gar „objektiv“ dargestellt – ist es aber nicht. Bereits bestehende gesellschaftliche Ungleichheiten sowie soziale Konstrukte wie zB das Geschlechterkonstrukt (Gender) kommen dadurch mit teils erheblichen Konsequenzen ans Tageslicht bzw werden uns wie ein Spiegel vorgehalten.
Stereotype, über die wir uns gar nicht bewusst sind, können sich direkt auf unsere digitalen Produkte und Services übertragen. Digitale Assistent*innen sind z.B standardmäßig mit einer weiblichen Stimme ausgestattet, was dem vorherrschenden femininen Stereotyp entspricht welcher damit verstärkt wird. Ein weiteres Beispiel: Die 2019 von Apple eingeführte Kreditkarte (Apple Card) kam in die Schlagzeilen, da bei gleichen Einkünften Frauen durch den Algorithmus ein um ein vielfaches geringerer Kredit gewährt wurde als Männern.
In diesem kurzen 20 minütigen Vortrag beleuchtet Stefanie, was diese impliziten sozialen Konstrukte für die Entwicklung digitaler Technologien bedeuten und welche Konsequenzen wir daraus ziehen sollten. Viel Spaß beim ansehen!