No al riconoscimento automatico di genere e orientamento sessuale

Il riconoscimento automatico del genere e dell'orientamento sessuale presenta difetti scientifici e mette a rischio le vite LGBT+. L'Unione Europea ha l'opportunità di vietare questa tecnologia e impedire che tali strumenti vengano esportati in tutto il mondo.

"Il riconoscimento automatico del genere non è un problema solo per le persone trans. È un problema di misoginia e patriarcato, perché queste categorie così rigide sono state create per esercitare un controllo su ciò che è maschile e femminile".

Citazione modificata di una persona bianca trans di genere non conforme. (Fonte in inglese)

Sempre più governi e aziende utilizzano sistemi di intelligenza artificiale (IA) per identificare e tracciare cittadini e consumatori. Tra i presunti vantaggi c’è la velocizzazione delle procedure di check-in negli aeroporti grazie al riconoscimento facciale, e un'esperienza di acquisto più fluida e personalizzata.

Ma quando si tratta di riconoscere e classificare gli esseri umani in tutta la loro diversità, queste tecnologie presentano gravi difetti.

Molti di questi sistemi d'IA operano suddividendo le persone in due gruppi: maschi e femmine. Le conseguenze per le persone il cui genere non corrisponde al sesso assegnato alla nascita possono essere gravi.

Gli algoritmi sono inoltre programmati per rafforzare stereotipi sorpassati di razza e di genere, che possono risultare dannosi per tutti.

Questo tipo di tecnologia si basa sull'idea errata che il genere e l’orientamento sessuale si possano desumere dall’aspetto, dal modo di parlare o di muoversi di una persona, o semplicemente dal grado di "mascolinità" o "femminilità" del suo nome. Un difetto del genere può facilmente alimentare la discriminazione.

Immagina l’umiliazione: stai cercando di prendere un volo, e un computer ti ferma perché ha stabilito che non corrispondi al genere indicato sul tuo passaporto. Oppure non riesci a entrare in un bagno pubblico perché un algoritmo trova che il tuo viso non sia abbastanza maschile o femminile. Se non ci opponiamo in qualche modo, questa potrebbe presto diventare la realtà per molte persone in tutto il mondo. E in mani malintenzionate, per esempio quelle delle forze dell’ordine nei paesi in cui vigono leggi anti-LGBT+, questi strumenti posssono produrre danni considerevoli alle persone LGBT+.

Abbiamo la possibilità di fermare i danni di questa tecnologia prima che peggiorino. Nell’aprile del 2021 la Commissione europea, ramo esecutivo dell'UE, intende proporre un quadro legislativo – ovvero un pacchetto di norme e linee guida – per regolamentare i sistemi d'intelligenza artificiale. È un’opportunità unica per vietare il riconoscimento automatico del genere e dell’orientamento sessuale nella UE e impedire che tali strumenti vengano esportati in tutto il mondo.

Firma questa petizione per chiedere all’Unione europa di vietare il riconoscimento automatico del genere e dell’orientamento sessuale.

Firme
Obiettivo:  0

Alla Commissione europea, al Parlamento europeo e al Consiglio dell'Unione europea.

Un numero crescente di governi e aziende usa sistemi di intelligenza artificiale (IA) per identificare e tracciare cittadini e clienti. Ma questi sistemi non sono progettati tenendo in conto le persone queer, e rafforzano invece i pregiudizi e le discriminazioni già esistenti.

Vi chiediamo d'includere nell’imminente quadro normativo sui sistemi di intelligenza artificiale uno specifico divieto del riconoscimento automatico del genere e dell'orientamento sessuale, per impedire che questa tecnologia sia sviluppata, distribuita o utilizzata da enti pubblici e privati in tutto il mondo.

Aggiornamento

13 marzo 2024

Oggi il Parlamento europeo ha approvato la legge sull'intelligenza artificiale (IA). Questa legge rafforza la responsabilizzazione e la trasparenza delle applicazioni di IA ritenute ad alto rischio. Rappresenta una vittoria parziale di questa campagna, poiché include il divieto di rilevamento automatico dell'orientamento sessuale da parte degli strumenti di IA. Tuttavia, questa vittoria è attenuata dalla presenza di scappatoie all'interno del divieto stesso, che minano le protezioni apparentemente fornite alle persone LGB. Inoltre, la mancata promulgazione di un divieto totale di riconoscimento automatico del genere si profila come una lacuna significativa, che getta profonde preoccupazioni sulla privacy e sull'integrità individuale. Pur riconoscendo i progressi compiuti, dobbiamo anche evidenziare le sfide rimanenti. Sarà necessario un ulteriore lavoro per garantire che la tecnologia dell'IA sia di utilità e sicura per tutti, compresi i membri della comunità LGBT+.

08 dicembre 2023

Il trilogo tra le istituzioni dell'UE si è concluso questa sera, dopo oltre 36 ore di intensi negoziati. I negoziatori hanno annunciato di aver vietato la classificazione biometrica di attributi sensibili, tra cui l'orientamento sessuale e l'identità di genere. Tuttavia, la formulazione di questi divieti potrebbe lasciare delle scappatoie significative. Inoltre, sembra che le restrizioni non impediranno ai fornitori di esportare i sistemi di intelligenza artificiale vietati in Paesi al di fuori dell'UE. Di conseguenza, è prematuro dichiarare vittoria e l'accordo complessivo può essere descritto come moderatamente soddisfacente, nella migliore delle ipotesi. La nostra lotta è destinata a continuare.

14 giugno 2023

Oggi il Parlamento europeo ha ascoltato il nostro appello a vietare la sorveglianza biometrica di massa, compresi i sistemi di intelligenza artificiale che profilano il genere, la sessualità, l'etnia o le emozioni. Questa è un'ottima notizia e dimostra l'impatto che possiamo avere quando uniamo le nostre forze. Tuttavia, per mettere al bando una volta per tutte queste tecnologie difettose e dannose, dobbiamo aumentare la pressione per assicurarci che tutte e tre le istituzioni europee coinvolte nel processo legislativo raggiungano un accordo.

06 giugno 2023

Oggi, in collaborazione con i nostri partner, abbiamo trasmesso il tuo messaggio direttamente al Parlamento europeo: l'intelligenza artificiale non può decidere chi siamo! Abbiamo chiesto loro di fare la cosa giusta durante la votazione plenaria del 14 giugno e di vietare i sistemi di intelligenza artificiale che profilano il genere, la sessualità, l'etnia o le emozioni. Tuttavia, il nostro lavoro non è ancora finito e abbiamo bisogno del tuo continuo sostegno per garantire un futuro che rispetti la privacy e la dignità umana.

18 giugno 2021

Il Comitato europeo per la protezione dei dati ha pubblicato un parere sul progetto di legge relativo all'intelligenza artificiale proposto dalla Commissione europea. Chiede "un divieto generale di qualsiasi uso dell'IA per un riconoscimento automatico delle caratteristiche umane in spazi pubblicamente accessibili". Questa è una buona notizia perché potrebbe anche includere il riconoscimento automatico del genere e dell'orientamento sessuale. (Fonte in inglese)

21 aprile 2021

Il quadro legislativo proposto oggi dalla Commissione europea riconosce la necessità di vietare alcuni sistemi di IA per proteggere i diritti fondamentali. Tuttavia, i divieti sono troppo vaghi, consentono delle scappatoie, e non trattano adeguatamente il riconoscimento automatico del genere e dell'orientamento sessuale. Questa è un'opportunità mancata. Aumenteremo la pressione sul Parlamento europeo e sul Consiglio dell'Unione europea per assicurarci che includano un divieto di questi strumenti dannosi e difettosi nei prossimi passaggi del percorso legislativo.

"Gli esseri umani già mi attribuiscono abbastanza spesso il genere sbagliato. Perché mai dovrei volere che un robot li aiuti a fare lo stesso? Il misgendering sistematico non farebbe che alimentare la costante marea di commenti sgraditi in cui navighiamo costantemente. Sarebbe come morire di mille piccole ferite".

Citazione modificata di una persona bianca non binaria. (Fonte in inglese)


"Il riconoscimento automatico del genere non presenta alcun vantaggio significativo dimostrabile. I suoi danni sono invece dimostrabili. Le persone trans dovrebbero preoccuparsi. È una tecnologia perversa, e non funziona, ma ci sarà sempre qualcuno disposto a impiegarla".

Citazione modificata di una persona bianca non binaria. (Fonte in inglese) 

"Le persone trans che si muovono nel mondo hanno già così tanti occhi addosso, e li sentiamo tutti. Non farebbe che esasperare la situazione esistente. Non serve un altro paio d’occhi robotici a opprimerci. Se le telecamere di sicurezza tentassero costantemente di stabilire il mio genere, penso che mi sentirei aggredita. E credo che sarei esposta a molte violenze evitabili".


Citazione modificata di una persona trans femminile nera/mista. (Fonte in inglese)
FAQ

Cos'è il riconoscimento automatico del genere e dell'orientamento sessuale?

Il riconoscimento automatico del genere e dell'orientamento sessuale è una tecnologia che tenta di identificare il genere e l’orientamento sessuale degli individui analizzandone il nome, l’aspetto e il modo di parlare o di muoversi. Non essendo però davvero in grado di riconoscere il genere o l’orientamento sessuale, può solo limitarsi a una previsione.


Dov’è usato il riconoscimento automatico del genere e dell'orientamento sessuale?

I governi e le aziende che usano questa tecnologia per identificare e tracciare cittadini e consumatori sono sempre di più. È attiva in luoghi come i terminali di check-in degli aeroporti, i negozi e anche alcune piattaforme di social media.


Perché il riconoscimento automatico del genere e dell'orientamento sessuale rappresenta una minaccia per le persone LGBT+?

Spesso questi software sono programmati per suddividere le persone in due gruppi: maschi e femmine. Le conseguenze per le persone il cui genere non corrisponde al sesso assegnato alla nascita possono essere gravi. Gli algoritmi sono inoltre programmati per rafforzare stereotipi sorpassati di razza e di genere, che possono risultare dannosi per tutti.

Gli algoritmi, inoltre, riproducono i pregiudizi sull'aspetto delle persone lesbiche, gay e bi, alimentando l’obsoleta ed erronea convinzione che l’identità si possa desumere dall'aspetto. E in mani malintenzionate, per esempio quelle delle forze dell’ordine nei paesi in cui vigono leggi anti-LGBT+, questi strumenti possono produrre danni considerevoli alle persone LGBT+.



Quali sono alcuni esempi dei danni che i software di riconoscimento automatico di genere e orientamento sessuale possono arrecare alle persone LGBT+?

  • Alle persone trans potrebbe essere negato l'accesso a spazi riservati a uno specifico genere, quali bagni e spogliatoi.

  • Le autorità dei paesi repressivi potrebbero usare il riconoscimento facciale per analizzare i filmati delle telecamere di sicurezza o i profili social al fine di rintracciare le persone presuntamente LGBT+ e arrestarle.

  • Se il software di sicurezza stabilisce che una persona non corrisponde al genere indicato sul suo passaporto, potrebbe essere fermata e interrogata all'aeroporto.

Che differenza c’è tra il riconoscimento automatico di genere e orientamento sessuale e il riconoscimento facciale?

A volte, per effettuare le loro previsioni, i sistemi automatici di riconoscimento del genere e dell'orientamento sessuale usano software di riconoscimento facciale (o l’analisi di altre caratteristiche biometriche come il modo di camminare). Tecnologie biometriche come il riconoscimento facciale possono inoltre essere usate da governi o aziende per condurre attività di sorveglianza di massa, minacciando la privacy e le libertà delle persone queer.



Perché l'Unione Europea dovrebbe vietare il riconoscimento automatico del genere e dell'orientamento sessuale?

Nell’aprile del 2021 la Commissione europea, ramo esecutivo dell'UE, intende proporre un quadro legislativo – ovvero un pacchetto di norme e linee guida – per regolamentare i sistemi d'intelligenza artificiale. È un’opportunità unica per vietare il riconoscimento automatico del genere e dell’orientamento sessuale nell’Unione europea e impedire che tali strumenti vengano esportati in tutto il mondo.



Cosa posso fare per contribuire a vietare il riconoscimento automatico del genere e dell'orientamento sessuale?

Condividi la nostra petizione e chiedi ai tuoi amici di domandare all'Unione Europea di vietare queste tecnologie che danneggiano le persone LGBT+.

CONDIVIDI QUESTA CAMPAGNA

Questa campagna è condotta in collaborazione con Access Now e Reclaim Your Face.

All Out collabora con Reclaim Your Face, la campagna europea per vietare il riconoscimento facciale e le tecnologie biometriche di sorveglianza di massa negli spazi pubblici. Queste tecnologie, che ci osservano e ci tracciano senza sosta, rappresentano una specifica minaccia alla libera espressione e alla privacy delle persone LGBT+. Se sei un cittadino dell'UE, puoi rafforzare il tuo sostegno alle persone LGBT+ firmando anche l'iniziativa dei cittadini europei per vietare la sorveglianza biometrica di massa.