vectorfusionart / Shutterstock

vectorfusionart / Shutterstock

Wer glaubt, dass die neuen Technologien einen automatischen Schub für die Chancengleichheit von Frauen bewirken, irrt. Einiges spricht hingegen dafür, dass eher das Gegenteil der Fall sein wird – wenn auch unbeabsichtigt. Das Soziale lebt im Binären weiter. Algorithmen werden zu Transmittern von Stereotypen. Der ungleiche Kampf der Geschlechter wird in der digitalisierten Welt fortgeschrieben.

Dieser Beitrag gehört zur Serie: Digitalisierung und Führung

Auswahl weiterer Beiträge aus der Serie:

  1. Virtuelle Teams und Digitale Führung
  2. Führung durch Roboter – Aufstieg eines artifiziellen Arbeiters
  3. Digitalisierungsfalle – Frauen verlieren gegen Algorithmen
  4. Digitale Kompetenz – Mehr als Skills für Führungskräfte
  5. Feedbackprozesse in Organisationen – Führungswissen zur Ausgestaltung

Dieser Beitrag gehört zur Serie: Frauen und Führung

Auswahl weiterer Beiträge aus der Serie:

  1. „Beauty is the Beast“ – Wo weibliche Schönheit Führungspositionen verschließt
  2. Lohngerechtigkeit durch Transparenz? Führungswissen liefert Antworten
  3. Führungsnachteil Frau – Neue Studien zum Gender Gap
  4. Digitalisierungsfalle – Frauen verlieren gegen Algorithmen

Die alte und die neue Welt der Chancenungleichheit von Frauen

Alina Sorgner und Christiane Krieger-Boden vom Institut für Weltwirtschaft sehen in ihrer jüngst veröffentlichten Analyse zur Digitalisierung der Wirtschaft besondere Chancen für Frauen, bestehende Diskriminierungen in den G20 Staaten abzubauen. Unterstützungsprogramme müssten folgen, um nicht einen gegenteiligen Effekt zu erzeugen. Der Vorbehalt zur Vorsicht ist zweifelsfrei begründet. Die diesbezügliche Stoßrichtung dort ist aber nur die halbe Geschichte. Vernachlässigt wird, dass in digitalen Prozessen Geschlechterstereotype eingewoben sein können, gerade mit Blick auf entscheidungsrelevante Grundlagen für Führungskräfte wie Konsumenten. Dazu komme ich im zweiten Teil dieses Beitrages. Beginnen möchte ich zuvor mit der Verdeutlichung des Wirkens von Stereotypen in einem aus Unternehmenssicht exotischen, analogen Bereich, dem Orchester, auch weil u.a. Managerseminare gerne mit der Dirigentenmetapher arbeiten. Die alte und die neue Welt ist diesmal ein lehrreiches Anschauungsmaterial für Verwerfungen, aber auch für Entfaltungsmöglichkeiten.

Fortschritte im Analogen: Orchester

Traditionell waren klassische Orchester von Männern dominiert. Bei den Berliner Philharmonikern wurde die erste Frau, die Geigerin Madeleine Carruzzo, 1982 aufgenommen. Bei den Wienern Philharmonikern geschah dies mit der Harfenistin Anna Lelkes erst 1997. Männer sind dann wohl bessere Musiker, so die eher schlichte Folgerung. Wie so oft, kann ein verändertes, fast schon experimentelles Vorgehen zeigen, dass durchaus auch andere Gründe, nämlich geschlechterbezogene,  viel eher mitverantwortlich sind.

Das Boston Symphony Orchestra war das erste der führenden Orchester, andere folgten später, das im Jahre 1952 eine verblüffend andere und einfache Methode bei der Auswahl neuer Orchestermitglieder praktizierte: Vorgespielt wurde in der ersten Runde hinter einem Wandschirm. Statt Geschlecht, Aussehen, Bewegung, Kleidung und Alter zählte so nur die musikalische Performance. Es funktionierte notabene erst, als alle barfuß vorspielten. Das weibliche Schuhwerk klackte ansonsten zu charakteristisch. Konsequenz: Eine deutliche Erhöhung weiblicher Orchestermitglieder, den Claudia Goldin, Guggenheim-Stipendiatin und spätere Ökonomieprofessorin an der Harvard University, und Cecilia Rouse, Ökonomieprofessorin an der Woodrow Wilson School, nach empirischer Studie rückblickend auf mindestens 25% taxierten. Frauen sind in den USA inzwischen fest, auch in Spitzenorchestern, etabliert.

Zum Vergleich: In 2017 sind immer noch nur rund 15 % der Orchestermitglieder der Berliner Philharmoniker weiblich, 2016 lag der Anteil bei den Wienern bei beredten 8%. Fairerweise muss man allerdings daran erinnern, dass die Verbleibzeiten der Mitglieder in diesen Spitzenorchestern extrem lang sind, so dass sich ein Wandel auch faktisch nur langsamer als beispielsweise in Unternehmen vollziehen kann. Das Beispiel Boston Symphony Orchestra zeigt jedoch, dass der Wille zur Änderung in der Teamzusammensetzung etwas bewegen kann.

Simone Young (© Klaus Lefebvre)

Simone Young (Ⓒ Klaus Lefebvre)

Und die Leitungsposition? Hier bleibt es düster, auch wenn berücksichtigt wird, dass mehr Männer diese Ausbildung anstreben. Dirigentinnen sind noch immer eine Rarität, auch und gerade in Mitteleuropa. In Deutschland waren es 2016 in 130 Orchestern gerade einmal d r e i (Hasselbeck auf BR Klassik). 2014 betrug der Prozentanteil bei den Einladungen für die großen Schweizer Orchester nur 1,6% (Weber 2016). Vasily Petrenko, selbst Dirigent, führte dies vor einigen Jahren einmal auf die geringere sexuelle Energie von Männern am Pult zurück, die den Musikern die Konzentration auf das Spiel erleichtere. Kurz danach ruderte er zurück. Andere, wie der finnische Professor Jorma Panula, sehen eher eine Differenz zwischen „weiblicher“ (Debussy) und „männlicher“ (Bruckner) Musik. Letztere könne von Frauen nicht adäquat wiedergegeben werden – umgekehrt, fällt einem da ein, geht dies wohl problemlos. Auf Studien konnte er dabei ohnehin nicht verweisen. Im Jahre 2014 war das im Übrigen. Mehrheitsmeinung ist dies wohl nicht, aber bemerkenswert. Ein auch für den Managementkontext passender Kommentar stammt von Simone Young:

„Ich glaube, wir machen grundsätzlich einen Fehler, indem wir Männlichkeit mit Stärke verbinden und Weiblichkeit mit Sensibilität. Jeder Künstler braucht Stärke und Sensibilität, egal ob es Mann oder Frau ist“
Simone Young, Australische Dirigentin, Orchesterintendantin und Hochschulprofessorin

Nun, spätestens beim Dirigieren ist die Trennwand eben untauglich,  alle vorgefassten Meinungen oder unbewussten Vorurteile zu minimieren. Der Wille, Macht abzugeben, ist zudem auch in der klassischen Musik begrenzt.

Rückschritte im Digitalen: Algorithmen

Ich habe an anderer Stelle bereits aufgezeigt, dass die Assoziation Technologie und Geschlecht nicht zugunsten der Frau spielt. So fördert bereits die Tatsache, dass ein Computer einen männlichen Namen trägt, dessen wahrgenommene Wertigkeit. Auch lassen Investoren in der Start-up Szene ihr Geld lieber von einem männlichen CEO verwalten. Und die prototypische Führungskraft in den Köpfen ist i.d.R. männlich, gerade wenn Fragen der Strategie und damit der Zukunftsgewandtheit aufgerufen werden (Weibler 2016).

Für technologische Anwendungen wie Internetplattformen gilt dies eben auch (O’Neil 2016). Bekannt geworden ist der Zusammenhang von afroamerikanischen Namen, die, wie einst für Google-Suchantworten analysiert, aus Diskriminierungssicht unbeabsichtigt häufiger mit Werbeanzeigen für strafregisterbezogene Dienste gekoppelt werden (Stichwort: Solvenz des Mieters, Ärgervermeidung).

Warum? Der verantwortliche Algorithmus lernt aus dem Suchverhalten einiger und wendet deren Suchverhalten für Personen an, die dasselbe Ausgangsinteresse haben. So pflanzen sich Verhaltensweisen im Netz, die den nicht-repräsentativen Erfahrungshintergrund einiger ebenso wie deren Vorurteile widerspiegeln, recht schnell über das Netz fort und verfestigen sich, ohne dass dafür zwischenzeitlich empirische Evidenz notwendig wäre. Wir kennen den Mechanismus, der Individuelles aus dem Kollektiven ableitet, auch von Amazon oder Netflix und deren Empfehlungslisten. Einerseits recht nützlich, andererseits einschränkend, auf alle Fälle primär den Status quo fortschreibend.

Juergen Faelchle / Shutterstock

Juergen Faelchle / Shutterstock

Mit Blick auf die Wirkung eines typischen Algorithmus, so wie er vielfach programmiert wird, haben die Forscherinnen Anja Lambrecht (London Business School) und Catherine Tucker (MIT) auf Facebook untersucht, inwieweit eine eigentlich vordergründig geschlechtsneutrale Programmierung Frauen zum Nachteil gereichen kann. Es ging um eine geschaltete Werbung, die Jobangebote für die Bereiche Wissenschaft, Technologie, Ingenieurswesen und Mathematik zum Gegenstand hatte. Dies sind wiederum typischerweise Berufsfelder, in denen Frauen bislang geringer als Männer vertreten sind, die aber gleichzeitig zentrale Zukunftsfelder bearbeiten. Der Algorithmus war so programmiert, dass er pro Klick eine an den Betreiber zu zahlende Höchstvergütung und ein Tageslimit vorsah. Standard also.

Die Befunde waren, dass (1) Frauen diese Anzeige um 20% weniger häufig zu sehen bekamen, in der Altersspanne von 18-34 Jahren sogar um 40% weniger, und (2) falls Frauen diese Anzeige zu sehen bekamen, sie diese häufiger anklickten. Die entscheidende Frage ist hier: Warum bekamen Frauen dieser Altersgruppe die Anzeige weniger häufig zu sehen? Die Antwort ist marktgetrieben: Für die jüngeren Alterskategorien sind die Produkt- und Servicepreise  generell deutlich höher als jene für Männer. Entsprechend wird bei Maßgabe der Maximierung des Verbreitungsgrades kostenoptimal vom Algorithmus agiert, da die Höchstgrenze häufiger als bei Männern ausgereizt werden muss. Die höheren Preise kommen dadurch zustande, dass Frauen in dieser Kategorie höherwertige Produkte/Dienstleistungen suchen, ausgabefreudiger sind, weil sie häufiger als Männer das Haushaltsbudget für diese Warenklassen verwalten, aber manchmal auch für identische Waren mehr zahlen müssen als Männer, weil das System einen höheren Preis für Frauen anzeigt. Und dann klicken sie noch häufiger und erreichen tiefere Konversionsstufen. Vergleichbare Testbefunde fanden sich für Google Adwords, Twitter und Instagram.

Digitalisierungsfalle muss Unternehmen bewusst sein

Die Digitalisierungsfalle für Frauen ist den meisten bislang nicht geläufig. Als ich mit einem Kollegen aus der Wirtschaftsinformatik einer europäischen Spitzenuniversität über dieses Thema sprach, schien auch er überrascht. Dass in Gesellschaft wie in Unternehmen Frauen häufiger, wenn diese Formulierung denn ausreicht, eine Extrameile zu laufen haben, ist weithin bekannt (– und ja, es gibt zuweilen natürlich auch ungerechtfertigte Bevorzugungen). Dass humanoide Roboter Geschlechterstereotype provozieren und produzieren, vielleicht schon weniger. Dass  aber Algorithmen aktiv zu deren Stabilisierung beitragen (können), wird erst sehr langsam deutlich. Wenigstens scheint die Forschung zur Digitalisierung weiter als deren Praxis.

“The blind application of machine learning runs the risk of amplifying biases present in data”
Tolga Bolukbasi u.a. 2016

Für die unternehmerische Praxis ist dies ein handfestes Problem. Sofern bestehende Biases nicht bewusst genutzt werden sollen, ein ethisches Problem natürlich, werden wie im Falle des Recruitings potenziell wertvolle Personen nicht in die Auswahl aufgenommen. Bereits bei der Formulierung, auch dies ist nachgewiesen, werden durch die Wortwahl, die wiederum mit Wortwolken assoziiert sind, Verbindungen erzeugt, die bewerber- wie auswahlseitig Biases stützen können. Sprache prägt also schon das darauf basierende Denken. Nicht neu, dennoch richtig.

Die Nutzung großer Datenmengen (Big Data), eine intensiv diskutierte Entwicklung im HR-Bereich, wird dieses Problem nicht beheben, eher verstärken. So werden beispielsweise bei internen Assessments für die Personalentwicklung oder für Aufstiegsentscheidungen Datenmuster repliziert und für eine Entscheidung zugrunde gelegt, die von (weißen) männlichen alterslinearen Normalarbeitsverhältnissen ausgehen, da diese mit bisher erfolgreichen Werdegängen gekoppelt werden. Demographische Trends wie Einseitigkeiten bei früheren Entscheidungen werden so automatisiert verstärkt.

Unternehmen bleibt zurzeit nur, sich dieser Gefahr bewusst zu sein, wie auch Ray Fishman und Michael Luca (2017, 110) jüngst im Harvard Business Manager feststellten, denn

„die Wahrscheinlichkeit, dass ein Algorithmus unabsichtlich zur Gleichbehandlung aller führt, tendiert gegen null“.

Was Organisationen allerdings nach Ansicht von Verhaltensökonomen können, ist eine meiner Dauerempfehlungen: Selbständig experimentieren, aufmerksam auswerten und eigene Schlüsse ziehen. Was hier im Konkreten bedeuten kann: Anzeigen in zwei gleichwertigen Medien mit differenziertem Wording schalten und die Bewerbungen analysieren. Oder aber in ein und demselben Medium im ersten elektronischen Bewerbungsschritt einmal und einmal nicht einen Eintrag für das Geschlecht vorsehen und danach die Einladungsraten nach Geschlechtern mit Blick auf die Eingangsraten vergleichen usw. Das genügt dann zwar nicht unbedingt wissenschaftlichen Kriterien, vermittelt aber ein Gefühl für Bedeutsamkeiten.

Daneben sind die zumeist männlichen Programmierer aufgerufen, ihre Programme im Dialog mit den Marketing- oder Personalabteilungen zu entwickeln. Es lohnt sich sicherlich auch, einmal bei Personaldienstleistern nachzufragen, welche Vorkehrungen sie treffen, damit Sie als Kunde nicht (allzu) einseitige Informationen erhalten.

Alles in allem: Wenig Neues in der schönen neuen Welt in Sachen Chancengleichheit für Frauen.

Zusammenfassung

Die Gleichstellung der Frau ist kein Selbstläufer. Während im klassischen Orchester eine Veränderung der Vorspielpraxis mehr weibliche Orchestermitglieder in die Orchester brachte, bleibt diese Verbreiterung für das ausstrahlungsmächtige Dirigieren eines Weltklasseorchesters fast ohne Belang. Im Gegensatz zur vielfach gehörten Meinung, dass die Digitalisierung die Einnahme von Führungspositionen erleichtern könne, ergibt eine Analyse, dass Algorithmen bestehende Schieflagen sogar noch verstärken können – und es fängt bereits an der Eingangstür an: Bei der Präsentation von Jobangeboten. Wachsamkeit bleibt das Gebot der Stunde.

Bolukbasi, T. u.a. (2016): Man is to Computer Programmer as Woman is to Homemaker? Debiasing Word Embeddings.  In: Advances in Neural Information Processing Systems 29 (NIPS 2016). Abgerufen am 10.09.2017.
http://papers.nips.cc/paper/6228-man-is-to-computer-programmer-as-woman-is-to-homemaker-debiasing-word-embeddings

Fishman, R. / Luca, m. (2017): Wenn der Algorithmus diskriminiert: in Harvard Business Manager (Juni), 2017, 59-67

Hasselbeck, K. (2016): Frauen vor dem Orchester. Dirigentinnen. Eine Bestandsaufnahme. 11.02.2016. Abgerufen am 10.09.2017.
https://www.br-klassik.de/aktuell/news-kritik/dirigentinnen-frauen-orchester-100.html

Goldin, C. / Rouse, C. (2000): Orchestrating Impartiality: The Impact of „Blind“ Auditions on Female Musicians. In: The American Economic Review, Vol. 90(4), 715-741

Lambrecht, A. / Tucker, C. (2017) Algorithmic Bias? An Empirical Study into Apparent Gender-Based Discrimination in the Display of STEM Career Ads. In: SSRN Electronic Journal. 4. August 2017.

O’Neil, C. (2016):  Weapons of math destruction: How big data increases inequality and threatens democracy. New York

Sorgner, A. / Krieger-Boden, C. (2017): Empowering Women in the Digital Age. Abgerufen am 11.09.2017.
http://www.g20-insights.org/wp-content/uploads/2017/07/Empowering-Women-in-the-Digital-Age.pdf

Weber, M. (2016): Frauen haben bei Spitzenpositionen im Orchester das Nachsehen. SRF, Abgerufen am 10.09.2017.
https://www.srf.ch/kultur/musik/frauen-haben-bei-spitzenpositionen-im-orchester-das-nachsehen

Weibler, J. (2016): Frauen als Fremdkörper im Management. Hemer