« La reconnaissance automatisée du genre n’est pas qu’une question trans. C’est une question qui touche à la misogynie et au patriarcat, qui ont créé ces images étriquées de ce que doivent être un homme et une femme. »
- d’après les propos d’une personne blanche trans non-conforming. (Source en anglais)
De plus en plus de pays et d'entreprises utilisent l’intelligence artificielle pour identifier et suivre les citoyens et consommateurs. Elle permet par exemple de réduire l’attente à l'enregistrement dans les aéroports ou de personnaliser les offres de shopping.
Mais cette technologie repose sur une erreur fondamentale dans la manière dont elle catégorise les humains dans leur diversité.
La plupart de ces systèmes classent les personnes en deux groupes : homme ou femme. Pour les personnes dont le genre ne correspond pas au sexe assigné à la naissance, les conséquences peuvent être graves. Ces algorithmes renforcent des stéréotypes racistes et transphobes, qui sont dangereux pour tout le monde.
Ce type de technologie est conçu sur l’idée fausse que l’on peut deviner le genre et l’orientation sexuelle d’une personne d’après la manière dont elle parle, se déplace, ou d’après les sonorités de son prénom. C’est une erreur qui peut alimenter toutes sortes de discriminations.
Imaginez : vous courez pour attraper votre avion, et le portillon refuse de s'ouvrir car la reconnaissance faciale détermine que votre apparence ne correspond pas à ce qui est inscrit sur votre passeport. Ou encore le tourniquet des toilettes se bloque car un algorithme a décidé que votre visage n’est pas assez féminin. Si nous ne faisons rien, cela pourrait devenir le quotidien de beaucoup de gens. Et entre des mains mal intentionnées, par exemple la police des pays anti-LGBT+, ces outils pourraient être particulièrement dangereux.
Nous avons l’occasion d’empêcher cette technologie de faire du mal avant que cela n’empire. En avril 2021, la Commission européenne, le bras exécutif de l’UE, va proposer un cadre législatif, c’est-à-dire un ensemble de dispositions et de guides visant à réglementer les systèmes d’intelligence artificielle. C’est une occasion unique d’interdire la reconnaissance automatisée du genre et de l’orientation sexuelle dans l’UE et éviter leur exportation.
Signez cette pétition pour demander à l’Union européenne d’interdire ces technologies dangereuses pour les personnes LGBT+ partout dans le monde.
Commission européenne, Parlement européen et Conseil de l’Union européenne.
De plus en plus de pays et d'entreprises utilisent l’intelligence artificielle pour identifier et suivre les citoyens et consommateurs. Mais ces systèmes ne sont pas pensés pour les personnes queer et renforcent les stéréotypes et les discriminations.
Nous vous demandons d’interdire la reconnaissance automatisée du genre et de l’orientation sexuelle dans le cadre réglementaire sur les systèmes d’intelligence artificielle. Cela empêchera que cette technologie ne soit dévelopée ou employée par des acteurs publics ou privés partout sur la planète.
13 mars 2024
Aujourd'hui, le Parlement européen a approuvé la loi sur l'intelligence artificielle (IA). Cette loi renforce la responsabilité et la transparence des applications d'IA jugées à haut risque. Elle représente une victoire partielle pour cette campagne, car elle inclut l'interdiction de la détection automatique de l'orientation sexuelle par les outils d'IA. Toutefois, cette victoire est atténuée par la présence de lacunes dans l'interdiction elle-même, qui sapent les protections ostensiblement fournies aux personnes LGB. En outre, l'absence d'interdiction totale de la reconnaissance automatique du genre constitue une lacune importante, qui suscite de vives inquiétudes quant au respect de la vie privée et à l'intégrité des personnes. Tout en reconnaissant les progrès accomplis, nous devons également souligner les défis qui restent à relever. Des efforts supplémentaires seront nécessaires pour garantir que la technologie de l'IA soit utile et sûre pour tous, y compris pour les membres de la communauté LGBT+.
8 décembre 2023
Le trilogue entre les institutions européennes s'est achevé ce soir après plus de 36 heures d'intenses négociations. Les négociateurs ont annoncé l'interdiction de la classification biométrique des attributs sensibles, y compris l'orientation sexuelle et l'identité de genre. Toutefois, la formulation de ces interdictions pourrait laisser d'importantes lacunes. En outre, il semble que les restrictions n'empêcheront pas les fournisseurs d'exporter les systèmes d'intelligence artificielle interdits vers des pays extérieurs à l'UE. Par conséquent, il est prématuré de crier victoire et l'accord global peut être qualifié de modérément satisfaisant dans le meilleur des cas. Notre combat se poursuivra.
14 juin 2023
Aujourd’hui, le Parlement européen a entendu notre appel à interdire les pratiques de surveillance de masse biométrique, y compris les systèmes d’IA qui établissent le genre, la sexualité, l’ethnicité ou les émotions. Voilà d'excellentes nouvelles qui démontrent l'impact que nous pouvons avoir lorsque nous unissons nos forces. Toutefois, pour interdire une fois pour toutes ces technologies défectueuses et nuisibles, nous devons intensifier la pression pour que les trois institutions européennes impliquées dans le cadre législatif parviennent à un accord.
06 juin 2023
Aujourd’hui, nos partenaires et nous-mêmes avons transmis votre message directement aux eurodéputé·e·s : l'IA ne peut pas déterminer qui nous sommes ! Nous leur avons demandé de voter pour ce qui est juste lors de la séance plénière du 14 juin, et d’interdire les systèmes d’IA établissant des profils sur la base du genre, de l’orientation sexuelle, de l’appartenance ethnique ou des émotions. Mais notre travail ne s’arrête pas là et nous avons toujours besoin de votre soutien afin d’assurer un avenir où la vie privée et la dignité humaine seront respectées.
18 juin 2021
Le comité européen chargé de la protection des données a publié un commentaire à propos du projet de loi sur l'intelligence artificielle proposé par la Commission européenne. Il appelle à "une interdiction générale de toute utilisation de l'IA pour une reconnaissance automatisée des caractéristiques humaines, dans les espaces publiques". C'est une bonne nouvelle car cela pourrait également inclure la reconnaissance automatisée du genre et de l'orientation sexuelle. (La source - en anglais )
21 avril 2021
Le cadre juridique proposé aujourd'hui par la Commission européenne reconnaît la nécessité d'interdire certains systèmes d'intelligence artificielle pour protéger les droits fondamentaux. Cependant, ces recommandations sont trop vagues ; elles contiennent de graves lacunes et la liste des applications interdites n'inclut pas suffisamment à la reconnaissance automatisée du genre et de l'orientation sexuelle. C'est une occasion manquée. Nous allons intensifier la pression sur le Parlement européen et le Conseil de l'Union européenne pour qu'ils interdisent ces outils dangereux dans les prochaines étapes du processus législatif.
« Je me fais suffisament mégenrer par les humains. Et maintenant les robots ?! Le mégenrage par l’intelligence artificielle s’ajoute à l’océan de petits commentaires dans lesquels nous baignons tou·tes. Le mégenrage blesse comme des milliers de petites coupures de papier. »
- d’après les propos d’une personne blanche non-binaire. (Source en anglais)
« La reconnaissance automatisée du genre n’a aucun avantage réel et prouvable. Mais ses dangers, eux, sont réels et prouvables. Les personnes trans devraient s'inquiéter. C’est une technologie néfaste, qui ne fonctionne pas bien, mais qui trouvera toujours des clients. »
- d’après les propos d’une personne blanche non-binaire. (source en anglais)
« Chaque personne trans doit déjà vivre sous les regards. Cela ne fera qu’exacerber les choses. Nous n’avons pas besoin d’être désormais surveillé·es par des machines. Si les caméras de sécurité commençaient à identifier mon genre, je serais la cible de brutalités. Je serais certainement exposée à des violences inutiles. »
- d’après les propos d’une personne noire/métisse transféminine. (Source en anglais)
Qu’est-ce que la reconnaissance automatisée du genre et de l’orientation sexuelle ?
La reconnaissance automatisée du genre et de l’orientation sexuelle est une technologie qui se dit capable d’identifier votre genre et votre orientation sexuelle en analysant votre nom, votre voix, votre apparence ou votre démarche. En réalité, elle ne peut que faire des hypothèses sur votre genre et votre orientation sexuelle.
Où utilise-t-on la reconnaissance automatisée du genre et de l’orientation sexuelle ?
De plus en plus de pays et d'entreprises utilisent l’intelligence artificielle pour identifier et suivre les citoyens et consommateurs. On la retrouve à l’enregistrement d’un aéroport, dans des boutiques et sur certains réseaux sociaux.
Pourquoi la reconnaissance automatisée du genre et de l’orientation sexuelle est-elle une menace pour les personnes LGBT+?
Ce logiciel est souvent programmé pour classer les gens en deux groupes : hommes et femmes. Pour les personnes dont le genre ne correspond pas au sexe assigné à la naissance, les conséquences peuvent être graves. Ces algorithmes renforcent des stéréotypes racistes et transphobes datés, qui sont dangereux pour tout le monde.
De plus, l’algorithme reprend des stéréotypes sur l’apparence des personnes lesbiennes, gays et bi et cette idée fausse que l’on peut prédire la personnalité des gens d’après leur apparence. Et entre des mains mal intentionnées, par exemple la police des pays ayant des lois anti-LGBT+, ces outils pourraient être particulièrement dangereux.
Par exemple, comment la reconnaissance automatisée du genre et de l’orientation sexuelle peut-elle être dangereuse pour les personnes LGBT+ ?
Les personnes trans pourraient se voir refuser l’accès aux espaces genrés comme des toilettes ou des vestiaires.
Dans les pays répressifs, les autorités pourraient utiliser la reconnaissance faciale pour analyser les caméras de sécurité ou les réseaux sociaux pour pister les personnes qu’elles soupçonnent d’être LGBT+ et les arrêter.
À l’aéroport, vous pouvez être arrêté et interrogé si le logiciel de sécurité détermine que vous ne correspondez pas au genre affiché sur votre passeport.
Quelle est la différence entre la reconnaissance automatisée du genre et de l’orientation sexuelle et la reconnaissance faciale ?
Les systèmes de reconnaissance automatisée du genre et de l’orientation sexuelle utilisent parfois les logiciels de reconnaissance faciale (ou l’analyse d’autres paramètres biométriques, comme la démarche) pour réaliser leurs prédictions. Les technologies biométriques comme la reconnaissance faciale peuvent également être utilisées par les pouvoirs publics ou les entreprises pour réaliser une surveillance de masse, ce qui menace la vie privée et les libertés des personnes queer.
Pourquoi l’Union européenne devrait-elle interdire la reconnaissance automatisée du genre et de l’orientation sexuelle ?
En avril 2021, la Commission européenne, le bras exécutif de l’UE, va proposer un cadre législatif, c’est-à-dire un ensemble de règlementations et de guides visant à réguler les systèmes d’intelligence artificielle. C’est une occasion unique d’interdire la reconnaissance automatisée du genre et de l’orientation sexuelle dans l’UE et éviter leur exportation.
Que puis-je faire pour bloquer la reconnaissance automatisée du genre et de l’orientation sexuelle ?
Partagez notre pétition et invitez vos ami·es à demander à l’Union européenne d’interdire ces technologies dangereuses pour les personnes LGBT+.
Cette campagne a été lancée en coopération avec Access Now et Reclaim Your Face.
All Out s'est associée à Reclaim Your Face, la campagne européenne pour l’interdiction des reconnaissances faciales et des technologies biométriques de surveillance de masse dans l’espace public. Ces technologies qui nous observent et nous suivent en permanence représentent une menace toute particulière pour la liberté d’expression et la vie privée des personnes LGBT+. Si vous êtes un citoyen de l'UE, vous pouvez renforcer votre soutien aux personnes LGBT+ en signant l’Initiative citoyenne européenne pour interdire la surveillance biométrique de masse.