INTERDISEZ LA  RECONNAISSANCE  AUTOMATISÉE DU  GENRE ET DE  L’ORIENTATION SEXUELLE

La reconnaissance automatisée du genre et de l’orientation sexuelle n’a aucun fondement scientifique et met en danger les personnes LGBT+. L’Union européenne a l’occasion d’interdire cette technologie et éviter leur exportation.

« La reconnaissance automatisée du genre n’est pas qu’une question trans. C’est une question qui touche à la misogynie et au patriarcat, qui ont créé ces images étriquées de ce que doivent être un homme et une femme. »

- d’après les propos d’une personne blanche trans non-conforming. (Source en anglais)

De plus en plus de pays et d'entreprises utilisent l’intelligence artificielle pour identifier et suivre les citoyens et consommateurs. Elle permet par exemple de réduire l’attente à l'enregistrement dans les aéroports ou de personnaliser les offres de shopping.

Mais cette technologie repose sur une erreur fondamentale dans la manière dont elle catégorise les humains dans leur diversité.

La plupart de ces systèmes classent les personnes en deux groupes : homme ou femme. Pour les personnes dont le genre ne correspond pas au sexe assigné à la naissance, les conséquences peuvent être graves. Ces algorithmes renforcent des stéréotypes racistes et transphobes, qui sont dangereux pour tout le monde.

Ce type de technologie est conçu sur l’idée fausse que l’on peut deviner le genre et l’orientation sexuelle d’une personne d’après la manière dont elle parle, se déplace, ou d’après les sonorités de son prénom. C’est une erreur qui peut alimenter toutes sortes de discriminations.

Imaginez : vous courez pour attraper votre avion, et le portillon refuse de s'ouvrir car la reconnaissance faciale détermine que votre apparence ne correspond pas à ce qui est inscrit sur votre passeport. Ou encore le tourniquet des toilettes se bloque car un algorithme a décidé que votre visage n’est pas assez féminin. Si nous ne faisons rien, cela pourrait devenir le quotidien de beaucoup de gens. Et entre des mains mal intentionnées, par exemple la police des pays anti-LGBT+, ces outils pourraient être particulièrement dangereux.

Nous avons l’occasion d’empêcher cette technologie de faire du mal avant que cela n’empire. En avril 2021, la Commission européenne, le bras exécutif de l’UE, va proposer un cadre législatif, c’est-à-dire un ensemble de dispositions et de guides visant à réglementer les systèmes d’intelligence artificielle. C’est une occasion unique d’interdire la reconnaissance automatisée du genre et de l’orientation sexuelle dans l’UE et éviter leur exportation.

Signez cette pétition pour demander à l’Union européenne d’interdire ces technologies dangereuses pour les personnes LGBT+ partout dans le monde.

Objectif:  0

Commission européenne, Parlement européen et Conseil de l’Union européenne.

De plus en plus de pays et d'entreprises utilisent l’intelligence artificielle pour identifier et suivre les citoyens et consommateurs. Mais ces systèmes ne sont pas pensés pour les personnes queer et renforcent les stéréotypes et les discriminations.

Nous vous demandons d’interdire la reconnaissance automatisée du genre et de l’orientation sexuelle dans le cadre réglementaire sur les systèmes d’intelligence artificielle. Cela empêchera que cette technologie ne soit dévelopée ou employée par des acteurs publics ou privés partout sur la planète.

Dernières nouvelles

18 juin 2021

Le comité européen chargé de la protection des données a publié un commentaire à propos du projet de loi sur l'intelligence artificielle proposé par la Commission européenne. Il appelle à "une interdiction générale de toute utilisation de l'IA pour une reconnaissance automatisée des caractéristiques humaines, dans les espaces publiques". C'est une bonne nouvelle car cela pourrait également inclure la reconnaissance automatisée du genre et de l'orientation sexuelle. (La source - en anglais )

21 avril 2021

Le cadre juridique proposé aujourd'hui par la Commission européenne reconnaît la nécessité d'interdire certains systèmes d'intelligence artificielle pour protéger les droits fondamentaux. Cependant, ces recommandations sont trop vagues ; elles contiennent de graves lacunes et la liste des applications interdites n'inclut pas suffisamment à la reconnaissance automatisée du genre et de l'orientation sexuelle. C'est une occasion manquée. Nous allons intensifier la pression sur le Parlement européen et le Conseil de l'Union européenne pour qu'ils interdisent ces outils dangereux dans les prochaines étapes du processus législatif.

« Je me fais suffisament mégenrer par les humains. Et maintenant les robots ?! Le mégenrage par l’intelligence artificielle s’ajoute à l’océan de petits commentaires dans lesquels nous baignons tou·tes. Le mégenrage blesse comme des milliers de petites coupures de papier. »

- d’après les propos d’une personne blanche non-binaire. (Source en anglais)

« La reconnaissance automatisée du genre n’a aucun avantage réel et prouvable. Mais ses dangers, eux, sont réels et prouvables. Les personnes trans devraient s'inquiéter. C’est une technologie néfaste, qui ne fonctionne pas bien, mais qui trouvera toujours des clients. »

- d’après les propos d’une personne blanche non-binaire. (source en anglais)

« Chaque personne trans doit déjà vivre sous les regards. Cela ne fera qu’exacerber les choses. Nous n’avons pas besoin d’être désormais surveillé·es par des machines. Si les caméras de sécurité commençaient à identifier mon genre, je serais la cible de brutalités. Je serais certainement exposée à des violences inutiles. »


- d’après les propos d’une personne noire/métisse transféminine. (Source en anglais)

FAQ

Qu’est-ce que la reconnaissance automatisée du genre et de l’orientation sexuelle ?

La reconnaissance automatisée du genre et de l’orientation sexuelle est une technologie qui se dit capable d’identifier votre genre et votre orientation sexuelle en analysant votre nom, votre voix, votre apparence ou votre démarche. En réalité, elle ne peut que faire des hypothèses sur votre genre et votre orientation sexuelle.

Où utilise-t-on la reconnaissance automatisée du genre et de l’orientation sexuelle ?

De plus en plus de pays et d'entreprises utilisent l’intelligence artificielle pour identifier et suivre les citoyens et consommateurs. On la retrouve à l’enregistrement d’un aéroport, dans des boutiques et sur certains réseaux sociaux.

Pourquoi la reconnaissance automatisée du genre et de l’orientation sexuelle est-elle une menace pour les personnes LGBT+?

Ce logiciel est souvent programmé pour classer les gens en deux groupes : hommes et femmes. Pour les personnes dont le genre ne correspond pas au sexe assigné à la naissance, les conséquences peuvent être graves. Ces algorithmes renforcent des stéréotypes racistes et transphobes datés, qui sont dangereux pour tout le monde.

De plus, l’algorithme reprend des stéréotypes sur l’apparence des personnes lesbiennes, gays et bi et cette idée fausse que l’on peut prédire la personnalité des gens d’après leur apparence. Et entre des mains mal intentionnées, par exemple la police des pays ayant des lois anti-LGBT+, ces outils pourraient être particulièrement dangereux.

Par exemple, comment la reconnaissance automatisée du genre et de l’orientation sexuelle peut-elle être dangereuse pour les personnes LGBT+ ?

  • Les personnes trans pourraient se voir refuser l’accès aux espaces genrés comme des toilettes ou des vestiaires.

  • Dans les pays répressifs, les autorités pourraient utiliser la reconnaissance faciale pour analyser les caméras de sécurité ou les réseaux sociaux pour pister les personnes qu’elles soupçonnent d’être LGBT+ et les arrêter.

  • À l’aéroport, vous pouvez être arrêté et interrogé si le logiciel de sécurité détermine que vous ne correspondez pas au genre affiché sur votre passeport.

Quelle est la différence entre la reconnaissance automatisée du genre et de l’orientation sexuelle et la reconnaissance faciale ?

Les systèmes de reconnaissance automatisée du genre et de l’orientation sexuelle utilisent parfois les logiciels de reconnaissance faciale (ou l’analyse d’autres paramètres biométriques, comme la démarche) pour réaliser leurs prédictions. Les technologies biométriques comme la reconnaissance faciale peuvent également être utilisées par les pouvoirs publics ou les entreprises pour réaliser une surveillance de masse, ce qui menace la vie privée et les libertés des personnes queer.

Pourquoi l’Union européenne devrait-elle interdire la reconnaissance automatisée du genre et de l’orientation sexuelle ?

En avril 2021, la Commission européenne, le bras exécutif de l’UE, va proposer un cadre législatif, c’est-à-dire un ensemble de règlementations et de guides visant à réguler les systèmes d’intelligence artificielle. C’est une occasion unique d’interdire la reconnaissance automatisée du genre et de l’orientation sexuelle dans l’UE et éviter leur exportation.

Que puis-je faire pour bloquer la reconnaissance automatisée du genre et de l’orientation sexuelle ?

Partagez notre pétition et invitez vos ami·es à demander à l’Union européenne d’interdire ces technologies dangereuses pour les personnes LGBT+.

PARTAGEZ CETTE CAMPAGNE

Cette campagne a été lancée en coopération avec Access Now et Reclaim Your Face.

All Out s'est associée à Reclaim Your Face, la campagne européenne pour l’interdiction des reconnaissances faciales et des technologies biométriques de surveillance de masse dans l’espace public. Ces technologies qui nous observent et nous suivent en permanence représentent une menace toute particulière pour la liberté d’expression et la vie privée des personnes LGBT+. Si vous êtes un citoyen de l'UE, vous pouvez renforcer votre soutien aux personnes LGBT+ en signant l’Initiative citoyenne européenne pour interdire la surveillance biométrique de masse.