"Die automatische Erkennung von Geschlecht betrifft nicht nur Trans*menschen. Es verstärkt frauenfeindliche Denkmuster und untermauert das Patriarchat, das Menschen in Schubladen stecken und kontrollieren will, was männlich und was weiblich ist."
Angepasstes Zitat einer nicht binären weißen Person. (Quelle)
Immer mehr Regierungen und Unternehmen benutzen künstliche Intelligenz (KI), um Menschen zu identifizieren oder ihre Standorte und Gewohnheiten zu verfolgen. Schnelleres Einchecken am Flughafen mit automatischer Gesichtserkennung oder ein personalisiertes Shopping-Erlebnis sind nur zwei der angepriesenen "Vorteile".
Aber diese Technologien sind von Grund auf fehlerhaft, wenn es um die Erkennung und die Kategorisierung von Menschen in ihrer gesamten Vielfalt geht.
Viele dieser KI-Systeme sortieren Menschen nämlich in zwei Gruppen ein – männlich oder weiblich. Die Folgen für die Menschen, deren Geschlecht nicht dem entspricht, dem sie bei ihrer Geburt zugeordnet wurden, können verheerend sein. Denn die verwendeten Algorithmen basieren auf veralteten und gefährlichen Stereotypen über Herkunft und Geschlecht, die uns allen schaden.
Diese Art der Technologie beruht auf der Annahme, dass Geschlecht und sexuelle Orientierung mithilfe von Aussehen, Stimme, bestimmten Bewegungen oder einem Namen identifiziert werden können. Dies ist nicht nur fehlerhaft, sondern auch diskriminierend.
Stell dir vor, wie gedemütigt du dich fühlen würdest, wenn du vor dem Einstieg in ein Flugzeug von einem Computer angehalten wirst, weil du nicht dem Gender-Marker in deinem Reisepass "entsprichst". Oder stell dir vor, dir wird der Zutritt zu einer öffentlichen Toilette verweigert, weil der Algorithmus dein Gesicht nicht für weiblich oder männlich genug hält. Werden wir jetzt nichts unternehmen, könnte dies bald schon die Realität für viele Menschen auf der ganzen Welt sein. Und in Ländern mit anti-LGBT*-Gesetzen stellen solche Technologien eine große Gefahr für die Sicherheit von LGBT*-Menschen dar.
Wir haben die Chance, etwas gegen diese gefährlichen Technologien zu tun, bevor sie sich ausbreiten. Im April 2021 will die Europäische Kommission, das ausführende Organ der EU, einen rechtlichen Rahmen – also Regularien und Bestimmungen – für KI-Systeme vorschlagen. Dies ist eine einmalige Gelegenheit die automatische Erkennung von Geschlecht und sexueller Orientierung in der EU zu verbieten und auch den Export solcher Tools in andere Teile der Welt zu verhindern.
Unterschreibe diese Petition und fordere die Europäische Union dazu auf, Technologien zu verbieten, die LGBT*-Menschen auf der ganzen Welt gefährden.
Europäische Kommission, Europäisches Parlament und Rat der Europäischen Union.
Immer mehr Regierungen und Unternehmen benutzen künstliche Intelligenz (KI), um Menschen zu identifizieren oder ihre Standorte und Gewohnheiten zu verfolgen. Aber diese Systeme missachten LGBT*-Menschen und verstärken bereits existierende Vorurteile und Diskriminierung.
Wir fordern Sie deswegen dazu auf, ein Verbot von automatischer Erkennung von Geschlecht oder sexueller Orientierung in die gesetzlichen Rahmenbedingungen für KI-Systeme aufzunehmen. Dies würde sicherstellen, dass solche Technologien weder entwickelt noch durch öffentliche oder private Institutionen auf der ganzen Welt eingesetzt werden.
13. März 2024
8. Dezember 2023
Der Trilog zwischen den EU-Institutionen wurde heute Abend nach mehr als 36 Stunden intensiver Verhandlungen abgeschlossen. Die Verhandlungsführer*innen haben ein Verbot der Verwendung biometrischer Daten zur Klassifizierung sensibler Merkmale, einschließlich der sexuellen Orientierung und der geschlechtlichen Identität, angekündigt. Die Formulierung dieses Verbots könnte jedoch unbeabsichtigt erhebliche Schlupflöcher lassen. Außerdem werden die Beschränkungen die Anbieter*innen offenbar nicht daran hindern, verbotene KI-Systeme in Länder außerhalb der EU zu exportieren. Folglich ist es verfrüht, einen Sieg zu verkünden, und die Gesamteinigung kann bestenfalls als mäßig zufriedenstellend bezeichnet werden.
14. Juni 2023
Heute hat das Europäische Parlament unsere Forderung nach einem Verbot biometrischer Massenüberwachungspraktiken, einschließlich KI-Systemen, die Profile von Geschlecht, Sexualität, ethnischer Zugehörigkeit oder Emotionen erstellen, angehört. Das ist eine großartige Nachricht und zeigt, welche Wirkung wir erzielen können, wenn wir unsere Kräfte vereinen. Um diese fehlerhaften und schädlichen Technologien jedoch ein für alle Mal zu verbieten, müssen wir den Druck erhöhen, um sicherzustellen, dass alle drei am Gesetzgebungsverfahren beteiligten europäischen Institutionen eine Einigung erzielen.
06. Juni 2023
Heute haben wir deine Botschaft gemeinsam mit unseren Partnergruppen direkt an das Europäische Parlament überbracht: Künstliche Intelligenz darf nicht entscheiden, wer du bist! Wir haben das Parlament darum gebeten, bei der Plenarabstimmung am 14. Juni das Richtige zu tun und KI-Systeme zu verbieten, die Profile von Geschlecht, Sexualität, ethnischer Herkunft oder Emotionen erstellen. Unsere Arbeit ist jedoch noch nicht beendet und wir brauchen weiterhin deine Unterstützung, um eine Zukunft zu gewährleisten, die Privatsphäre und Menschenwürde schützt.
18. Juni 2021
Der Europäische Datenschutzausschuss hat eine Stellungnahme zu dem von der Europäischen Kommission vorgeschlagenen Gesetzesentwurf über künstliche Intelligenz veröffentlicht. Er fordert "ein generelles Verbot des Einsatzes von KI zur automatischen Erkennung menschlicher Merkmale in öffentlich zugänglichen Räumen". Dies ist eine gute Nachricht, denn dies könnte auch die automatische Erkennung von Geschlecht und sexueller Orientierung einschließen. (Quelle)
21. April 2021
Der heute von der EU-Kommission vorgeschlagene Rechtsrahmen erkennt die Notwendigkeit eines Verbots einiger KI-Systeme zum Schutz der Grundrechte an. Die Verbote sind jedoch zu vage, enthalten gravierende Schlupflöcher und die Liste der verbotenen Anwendungen geht nicht ausreichend auf die automatisierte Erkennung von Geschlecht und sexueller Orientierung ein. Dies ist eine verpasste Chance. Wir werden den Druck auf das Europäische Parlament und den Rat der Europäischen Union erhöhen, um sicherzustellen, dass sie in den nächsten Schritten des Gesetzgebungsverfahrens ein Verbot dieser schädlichen und fehlerhaften Werkzeuge aufnehmen.
"Menschen ordnen mich oft genug dem falschen Geschlecht zu. Warum sollten Roboter ihnen nun dabei helfen? Eine vorprogrammierte falsche Zuordnung trägt zu dem Ozean der ständigen kleinen Kommentare bei, in dem wir bereits schwimmen. Falsches Gendern ist wie ein langsamer Tod durch tausend kleine Schnitte."
Angepasstes Zitat einer nicht binären weißen Person. (Quelle)
"Die automatische Erkennung von Geschlecht bringt keine nachweisbaren Vorteile. Aber sie verursacht nachweisbare Schäden. Trans*menschen sind besonders betroffen. Es geht um eine schlechte Technologie, die nicht funktioniert, aber trotzdem zum Einsatz kommen wird."
Angepasstes Zitat einer nicht binären weißen Person. (Quelle)
"Als Trans*person wirst du im täglichen Leben schon ständig beäugt und wir fühlen diese Augen. Dies wird alles nur noch verschlimmern. Wir brauchen nicht auch noch die wertenden Augen eines Roboters. Die ständige Jagd nach meinem Geschlecht durch Überwachungskameras wäre ein gewaltsamer Akt. Ich denke, ich wäre einem großen Maß unnötiger Gewalt ausgesetzt."
Angepasstes Zitat einer nicht binären weißen Person. (Quelle)
Was ist die automatische Erkennung von Geschlecht und sexueller Orientierung?
Die automatische Erkennung von Geschlecht und sexueller Orientierung ist eine Technologie, die versucht, dein Geschlecht und deine sexuelle Orientierung zu bestimmen, indem sie deinen Namen, dein Aussehen, deine Stimme und deine Bewegungen analysiert. In Wahrheit ist aber nur eine Vermutung und keine wirkliche Erfassung von Geschlecht oder Sexualität möglich.
Wo wird die automatische Erkennung von Geschlecht und sexueller Orientierung eingesetzt?
Immer mehr Regierungen und Unternehmen benutzen diese Technologie, um Menschen zu identifizieren oder ihre Standorte und Gewohnheiten zu verfolgen. Man findet sie an Check-In-Terminals am Flughafen, in Geschäften oder auch auf Social-Media-Plattformen.
Warum stellt die automatische Erkennung von Geschlecht und sexueller Orientierung eine Gefahr für LGBT*-Menschen dar?
Die Software ist oft so programmiert, dass sie Menschen in zwei Gruppen einteilen will – männlich oder weiblich. Die Folgen für die Menschen, deren Geschlecht nicht dem entspricht, dem sie bei ihrer Geburt zugeordnet wurden, können verheerend sein. Denn die verwendeten Algorithmen basieren auf veralteten und gefährlichen Stereotypen über Herkunft und Geschlecht, die uns allen schaden.
Dazu kommt, dass die Algorithmen Vorurteile über lesbische, schwule oder bisexuelle Menschen replizieren und so die veraltete Annahme verstärken, dass unser Aussehen etwas über unseren Charakter aussagen kann. In Ländern mit anti-LGBT*-Gesetzen stellen solche Technologien außerdem eine große Gefahr für die Sicherheit von LGBT*-Menschen dar.
Was sind einige Beispiele für die Schäden, die die automatische Erkennung von Geschlecht und sexueller Orientierung bei LGBT*-Menschen anrichten kann?
Trans*menschen könnte der Zutritt zu geschlechtsspezifischen Orten wie Toiletten oder Umkleideräumen verweigert werden.
In Ländern mit repressiven Regimes könnte die Gesichtserkennung zur Analyse von Überwachungsaufnahmen oder Social-Media-Profilen verwendet werden, um vermutliche LGBT*-Menschen zu verfolgen und zu verhaften.
Du könntest am Flughafen angehalten und verhört werden, wenn die Security-Software bestimmt, dass du nicht dem Gender-Marker in deinem Reisepass "entsprichst".
Was ist der Unterschied zwischen automatischer Erkennung von Geschlecht und sexueller Orientierung und automatischer Gesichtserkennung?
Automatische Erkennungssysteme für Geschlecht und sexuelle Orientierung benutzen Software für die Erkennung von Gesichtern (oder anderer biometrischer Eigenschaften wie der Gang einer Person), um Vorhersagen zu treffen. Biometrische Technologien wie die Gesichtserkennung können von Regierungen und Unternehmen auch für die Massenüberwachung verwendet werden, was die Privatsphäre und Freiheiten queerer Menschen gefährdet.
Warum sollte die Europäische Union die automatische Erkennung von Geschlecht und sexueller Orientierung verbieten?
Im April 2021 will die Europäische Kommission, das ausführende Organ der EU, einen rechtlichen Rahmen – also Regularien und Bestimmungen – für KI-Systeme vorschlagen. Dies ist eine einmalige Gelegenheit die automatische Erkennung von Geschlecht und sexueller Orientierung in der EU zu verbieten und auch den Export solcher Tools in andere Teile der Welt zu verhindern.
Was kann ich tun, damit die automatische Erkennung von Geschlecht und sexueller Orientierung verboten wird?
Teile unsere Petition und bitten deine Freunde, die Europäische Union aufzufordern, diese Technologie, die LGBT*-Menschen schadet, zu verbieten.
Diese Kampagne wird durchgeführt in Partnerschaft mit Access Now und Reclaim Your Face.
All Out ist Partner von Reclaim Your Face, einer europäischen Kampagne gegen gefährliche Technologien der Gesichtserkennung und biometrischen Massenüberwachung an öffentlichen Plätzen. Durch die ständige Überwachung und Verfolgung stellen solche Technologien eine Gefahr für die Ausdrucksfreiheit und Privatsphäre von LGBT*-Menschen dar. Du kannst deiner Unterstützung für LGBT*-Leben rechtliches Gewicht geben, indem du die offizielle Europäische Bürgerinitiative zum Verbot von biometrischer Massenüberwachung unterschreibst.