Können Sie uns zuerst etwas über Ihren beruflichen Werdegang erzählen? Was hat Sie dazu bewogen, im Bereich der künstlichen Intelligenz zu arbeiten? Sind Sie dabei auf geschlechtsspezifische Hürden gestossen?
Während meines Studiums der politischen Anthropologie habe ich mich für Fragen der Governance von Technologien, für die Machtbeziehungen hinter diesen Technologien und für die gesellschaftlichen Veränderungen durch Technologien interessiert. Anschliessend habe ich für Educa, die Fachagentur für den digitalen Bildungsraum Schweiz, an Richtlinien für die Datenverwendung gearbeitet. Ich beschäftigte mich damit, wie Daten in den Schulen genutzt werden können, seien es Daten von Schüler:innen oder von Lehrpersonen. Nach und nach begann ich mich eingehender mit Fragen im Zusammenhang mit der Datennutzung und später auch mit der künstlichen Intelligenz auseinanderzusetzen.
Seit zwei Jahren arbeite ich bei AlgorithmWatch CH, wo ich mich als Policy & Advocacy Managerin insbesondere mit den Auswirkungen von Algorithmen und KI auf Menschen und die Gesellschaft befasse.
Was die geschlechtsspezifischen Hürden betrifft, so glaube ich, dass wir es mit einem Umfeld zu tun haben, in dem Frauen in sämtlichen Bereichen der Governance von Technologien und im Speziellen der künstlichen Intelligenz noch stark untervertreten sind: Ich war wiederholt die einzige Frau im Raum oder habe Vorträge an Versammlungen gehalten, die sich zu über 90 % aus Männern zusammensetzten. Ich denke, dass es für eine Good Governance eine vielfältigere Repräsentation braucht und es wichtig ist, dass alle Akteurinnen und Akteure an diesen Diskussionen teilnehmen können.
Die Leser:innenschaft des PVB-Magazins ist sehr breit und vielfältig. Können Sie kurz die Grundprinzipien der KI erläutern? Wie funktioniert sie und was hat sie mit geschlechtsspezifischen Herausforderungen zu tun?
Der Begriff künstliche Intelligenz ist ein etwas schwammiger Oberbegriff, den wir zurückhaltend verwenden. Wir konzentrieren uns vielmehr auf das Grundkonzept
des Algorithmus, das als Rezeptur des Systems betrachtet werden kann. Wir fokussieren uns auf die Auswirkungen von algorithmischen Systemen, die bei der Entscheidungsfindung im Bereich der Grundrechte zum Zuge kommen. Dabei handelt es sich um Systeme, die eingesetzt werden, um eigenständig Entscheidungen zu treffen, Prognosen oder Empfehlungen abzugeben oder Inhalte zu generieren, die Menschen beeinflussen.Diese Systeme finden wir in verschiedenen Bereichen:
Bei der Jobsuche evaluieren sie beispielsweise unsere Bewerbungen, sie verarbeiten unsere Steuererklärungen automatisch, sie werden für medizinische Diagnosen, zur Prävention von Straftaten oder zur Einschätzung der Rückfallgefahr von Straffälligen verwendet.Es ist wichtig zu verstehen, dass diese Algorithmen weder neutral noch objektiv sind. Sie werden immer von Menschen entwickelt und verwendet, die sich auf bestimmte Annahmen stützen und die ihre eigenen Interessen und Ziele verfolgen.
Die Diskriminierungsmuster, die in der Gesellschaft bereits existieren, werden sich daher auch in den von den Algorithmen gelieferten Ergebnissen widerspiegeln – es
sei denn, diese Muster werden aktiv bekämpft.
Sollte dabei nicht auch vor Augen geführt werden, dass die meisten Entwickler:innen dieser Algorithmen Männer sind?
Stimmt. Die mangelnde Diversität bei der Konzeption von KISystemen ist ein zentrales Thema. Die Personen, die die Technologien entwickeln, lassen dabei ihre Sichtweisen
und Weltanschauungen einfliessen. Es gibt aber auch andere Faktoren, die die Ungleichheiten möglicherweise verstärken, etwa die Qualität der Daten wie z.B., wer durch
diese Daten repräsentiert wird, wann sie erhoben oder wie sie verarbeitet wurden usw. Hinter diesen Technologien verbirgt sich also viel menschliche Arbeit. Es ist daher wichtig, zu verstehen, dass es viele verschiedene Ebenen gibt, die zu einer Verstärkung der Ungleichheiten führen können, sei es auf der Ebene der Personen, die an der Entwicklung beteiligt sind, auf der Ebene der Datenqualität oder auf der Ebene der Entscheidungen, die getroffen werden, insbesondere bei der Nutzung des Systems.
Diese Algorithmen stützen sich denn auf die in den letzten Jahren gesammelten Daten der heutigen Gesellschaft, in der es de facto immer noch keine Gleichstellung gibt?
Genau. Es wird versucht, aktuelle oder künftige Probleme mit Systemen zu lösen, die sich stets auf Daten aus der Vergangenheit stützen. Auf diese Weise wird zwangsläufig die Vergangenheit reproduziert, es sei denn, diesen Effekten wird aktiv entgegengewirkt.
Welche Beziehung sollten wir also zur KI aufbauen? Und wie vermeiden wir eine Verstärkung der Gender Bias?
Zu Beginn sollte man sich informieren und experimentieren. Es ist wichtig, kritisch zu bleiben und die Leistung dieser Systeme nicht zu überschätzen. Es passiert oft, dass wir Menschen denken wollen, dass das, was aus der Maschine kommt, «neutral und richtig» ist, obwohl es in der Realität nicht immer objektiv oder verlässlich ist. Man sollte daher stets eine kritische Distanz bewahren und überlegen, wann und wo die Verwendung dieser Systeme Sinn macht, und welche Rahmenbedingungen geschaffen werden müssen, beispielsweise beim Einsatz dieser Technologien in der öffentlichen Verwaltung.
Diese Systeme werden immer öfter bei der Entscheidungsfindung genutzt, sei es bei Steuerberechnungen, beim Predictive Policing (vorhersagende Polizeiarbeit), bei der Risikoanalyse und in einigen Ländern auch bei der Bestimmung des Zugangs zu Sozialleistungen. Dabei handelt es sich mitunter um hochsensible Bereiche und es ist
wichtig, Rahmenbedingungen für eine verantwortungsvolle Nutzung zu schaffen, wie die Analyse der Auswirkungen eines Systems auf die Grundrechte und die Einführung von Massnahmen zur Verringerung dieser Risiken.
Ein erster wichtiger Schritt besteht in der Gewährleistung der Transparenz: Heute ist die Automatisierung eine Black Box, wir wissen nicht, von wem und weshalb diese Systeme genutzt werden. Die Transparenz muss verstärkt werden, beispielsweise durch öffentliche Register der verwendeten Systeme.
Können Sie erklären, wie die KI die Ungleichheiten zwischen Frauen und Männern verstärkt und was auf der Ebene der Arbeitgeber und der Politik getan werden kann, um diese Verzerrungen zu korrigieren?
Erstens reproduziert die KI Stereotypen, wenn wir nichts dagegen tun. Wird beispielsweise ein KIbasierter Bildgenerator verwendet, um ein Bild einer Person im ärztlichen Dienst zu generieren, liefert uns das System eher das Bild eines Mannes. Soll das System hingegen ein Bild einer Pflegefachperson generieren, wird das Bild eher eine Frau darstellen. Wir stellen also fest, dass die KI gewisse Stereotypen fortbestehen lässt und dazu beiträgt, diese noch zu verstärken.
Vor einigen Jahren führte AlgorithmWatch CH ein Experiment mit Stellenangeboten auf Facebook durch. Wir veröffentlichten nicht geschlechtsspezifische Stellenangebote. Dabei stellten wir fest, dass Inserate, mit denen Personen für das Fahren von Lastwagen gesucht wurden, eher männlichen Profilen und Inserate im Bereich der Kinderbetreuung eher weiblichen Profilen angezeigt wurden. Die Algorithmen haben also bestimmte Nutzer:innen gezielt aufgrund ihres Geschlechts angesprochen, mit entsprechenden Folgen für den Zugang zum Arbeitsmarkt. Um beim Thema zu bleiben: Wenn in einem Unternehmen seit jeher Frauen weniger Führungspositionen innehaben als Männer und das Unternehmen beschliesst, ein automatisiertes Einstellungssystem zu verwenden, das sich auf diese früheren Daten stützt und keine Korrekturen vornimmt, wird das System dieses Ungleichgewicht ebenfalls reproduzieren.
Es besteht eine reale Gefahr, dass die Verwendung dieser Systeme dazu führt, dass Ungleichheiten reproduziert und verstärkt werden. Angesichts dieser Gefahr gilt es, zwei grundlegende Aspekte zu berücksichtigen: Zum einen ist eine höhere Transparenz notwendig, d.h., es muss bekannt sein, wo, von wem und weshalb diese Systeme
verwendet werden. Zum anderen muss auch der Schutz vor Diskriminierung erhöht werden, insbesondere durch Präventivmassnahmen und indem es für die betroffenen Personen leichter ist, Forderungen geltend zu machen.
Des Weiteren ist zu klären, wer verantwortlich ist, wenn ein Algorithmus diskriminierend ist, da die Verantwortung nicht einfach an eine Maschine delegiert werden kann.
Können Sie uns kurz das Konzept der intersektionellen Diskriminierung sowie die Rolle, die sie in der KI spielt, erläutern? Beschränkt sie sich nur auf die Geschlechtervariable oder gibt es auch andere?
Intersektionelle Diskriminierung definiert eine Mehrfachdiskriminierung, die sich aus der Interaktion zwischen verschiedenen sozialen Identitäten ergeben kann, sei es das Geschlecht, die Tatsache, eine Person of Color zu sein oder eine Behinderung zu haben, der sozioökonomische Hintergrund usw. Je mehr dieser Merkmale eine Person in sich vereint, desto stärker kann sie benachteiligt sein.
Eine Frau mit einer Behinderung wird beispielsweise oftmals stärker diskriminiert als eine nichtbehinderte Frau. Das Gleiche kann für eine Woman of Color gelten, die es im Leben schwerer hat als eine weisse Frau.
Systeme, die auf künstlicher Intelligenz basieren, sind in der Regel komplex und treffen Entscheidungen, die auf mehreren Kriterien gleichzeitig basieren, z. B. Geschlecht, Alter usw. Sie können daher möglicherweise diskriminierende Auswirkungen intersektioneller Art haben.
Möchten Sie abschliessend noch etwas zur KI und ihre Auswirkungen auf die Geschlechterungleichheit sagen?
Zwei Punkte erscheinen mir fundamental: Erstens haben Systeme, die auf künstlicher Intelligenz basieren, auch das Potenzial, als Werkzeuge eingesetzt zu werden, um Diskriminierungen aufzudecken und auf Ungleichheiten hinzuweisen. Diese Systeme sind insbesondere nützlich, um grosse Datenmengen zu analysieren und Diskriminierungsmuster zu erkennen. Dazu müssen diese Systeme jedoch zu diesem Zweck konzipiert und eingesetzt werden. Heute ist ihre Nutzung jedoch häufig eher durch Produktivitäts oder Kostensenkungsziele motiviert.
Zweitens muss für einen verantwortungsbewussten Umgang mit der KI der Schutz vor Diskriminierung gestärkt werden. Der Bundesrat analysiert bis zum Ende des Jahres den Regulierungsbedarf im Bereich der künstlichen Intelligenz. Ende September haben wir gemeinsam mit 45 Organisationen einen Appell an den Bundesrat gerichtet und gefordert, dass der Schutz vor Diskriminierung durch KI und Algorithmen bei der künftigen Regulierung der KI Priorität eingeräumt wird. Die Problematik hat auch im Bundesparlament Beachtung gefunden und wir hoffen, dass der Bundesrat unserem Appell Gehör schenkt.
AlgorithmWatch ist eine gemeinnützige Nichtregierungsorganisation in Zürich und Berlin. Sie setzt sich dafür ein, dass Algorithmen und Künstliche Intelligenz (KI) Gerechtigkeit, Demokratie, Menschenrechte und Nachhaltigkeit stärken, statt sie zu schwächen.
Chiara Montecchio & Mariantonia Rosset für die PVB Gleichstellungskommission