No al riconoscimento automatico di genere e orientamento sessuale

Il riconoscimento automatico del genere e dell'orientamento sessuale presenta difetti scientifici e mette a rischio le vite LGBT+. L'Unione Europea ha l'opportunità di vietare questa tecnologia e impedire che tali strumenti vengano esportati in tutto il mondo.

"Il riconoscimento automatico del genere non è un problema solo per le persone trans. È un problema di misoginia e patriarcato, perché queste categorie così rigide sono state create per esercitare un controllo su ciò che è maschile e femminile".

Citazione modificata di una persona bianca trans di genere non conforme. (Fonte in inglese)

Sempre più governi e aziende utilizzano sistemi di intelligenza artificiale (IA) per identificare e tracciare cittadini e consumatori. Tra i presunti vantaggi c’è la velocizzazione delle procedure di check-in negli aeroporti grazie al riconoscimento facciale, e un'esperienza di acquisto più fluida e personalizzata.

Ma quando si tratta di riconoscere e classificare gli esseri umani in tutta la loro diversità, queste tecnologie presentano gravi difetti.

Molti di questi sistemi d'IA operano suddividendo le persone in due gruppi: maschi e femmine. Le conseguenze per le persone il cui genere non corrisponde al sesso assegnato alla nascita possono essere gravi.

Gli algoritmi sono inoltre programmati per rafforzare stereotipi sorpassati di razza e di genere, che possono risultare dannosi per tutti.

Questo tipo di tecnologia si basa sull'idea errata che il genere e l’orientamento sessuale si possano desumere dall’aspetto, dal modo di parlare o di muoversi di una persona, o semplicemente dal grado di "mascolinità" o "femminilità" del suo nome. Un difetto del genere può facilmente alimentare la discriminazione.

Immagina l’umiliazione: stai cercando di prendere un volo, e un computer ti ferma perché ha stabilito che non corrispondi al genere indicato sul tuo passaporto. Oppure non riesci a entrare in un bagno pubblico perché un algoritmo trova che il tuo viso non sia abbastanza maschile o femminile. Se non ci opponiamo in qualche modo, questa potrebbe presto diventare la realtà per molte persone in tutto il mondo. E in mani malintenzionate, per esempio quelle delle forze dell’ordine nei paesi in cui vigono leggi anti-LGBT+, questi strumenti posssono produrre danni considerevoli alle persone LGBT+.

Abbiamo la possibilità di fermare i danni di questa tecnologia prima che peggiorino. Nell’aprile del 2021 la Commissione europea, ramo esecutivo dell'UE, intende proporre un quadro legislativo – ovvero un pacchetto di norme e linee guida – per regolamentare i sistemi d'intelligenza artificiale. È un’opportunità unica per vietare il riconoscimento automatico del genere e dell’orientamento sessuale nella UE e impedire che tali strumenti vengano esportati in tutto il mondo.

Firma questa petizione per chiedere all’Unione europa di vietare il riconoscimento automatico del genere e dell’orientamento sessuale.

Firme
Obiettivo:  0

Alla Commissione europea, al Parlamento europeo e al Consiglio dell'Unione europea.

Un numero crescente di governi e aziende usa sistemi di intelligenza artificiale (IA) per identificare e tracciare cittadini e clienti. Ma questi sistemi non sono progettati tenendo in conto le persone queer, e rafforzano invece i pregiudizi e le discriminazioni già esistenti.

Vi chiediamo d'includere nell’imminente quadro normativo sui sistemi di intelligenza artificiale uno specifico divieto del riconoscimento automatico del genere e dell'orientamento sessuale, per impedire che questa tecnologia sia sviluppata, distribuita o utilizzata da enti pubblici e privati in tutto il mondo.

Aggiornamento

21 aprile 2021

Il quadro legislativo proposto oggi dalla Commissione europea riconosce la necessità di vietare alcuni sistemi di IA per proteggere i diritti fondamentali. Tuttavia, i divieti sono troppo vaghi, consentono delle scappatoie, e non trattano adeguatamente il riconoscimento automatico del genere e dell'orientamento sessuale. Questa è un'opportunità mancata. Aumenteremo la pressione sul Parlamento europeo e sul Consiglio dell'Unione europea per assicurarci che includano un divieto di questi strumenti dannosi e difettosi nei prossimi passaggi del percorso legislativo.

"Gli esseri umani già mi attribuiscono abbastanza spesso il genere sbagliato. Perché mai dovrei volere che un robot li aiuti a fare lo stesso? Il misgendering sistematico non farebbe che alimentare la costante marea di commenti sgraditi in cui navighiamo costantemente. Sarebbe come morire di mille piccole ferite".

Citazione modificata di una persona bianca non binaria. (Fonte in inglese)


"Il riconoscimento automatico del genere non presenta alcun vantaggio significativo dimostrabile. I suoi danni sono invece dimostrabili. Le persone trans dovrebbero preoccuparsi. È una tecnologia perversa, e non funziona, ma ci sarà sempre qualcuno disposto a impiegarla".

Citazione modificata di una persona bianca non binaria. (Fonte in inglese) 

"Le persone trans che si muovono nel mondo hanno già così tanti occhi addosso, e li sentiamo tutti. Non farebbe che esasperare la situazione esistente. Non serve un altro paio d’occhi robotici a opprimerci. Se le telecamere di sicurezza tentassero costantemente di stabilire il mio genere, penso che mi sentirei aggredita. E credo che sarei esposta a molte violenze evitabili".


Citazione modificata di una persona trans femminile nera/mista. (Fonte in inglese)
FAQ

Cos'è il riconoscimento automatico del genere e dell'orientamento sessuale?

Il riconoscimento automatico del genere e dell'orientamento sessuale è una tecnologia che tenta di identificare il genere e l’orientamento sessuale degli individui analizzandone il nome, l’aspetto e il modo di parlare o di muoversi. Non essendo però davvero in grado di riconoscere il genere o l’orientamento sessuale, può solo limitarsi a una previsione.

Dov’è usato il riconoscimento automatico del genere e dell'orientamento sessuale?

I governi e le aziende che usano questa tecnologia per identificare e tracciare cittadini e consumatori sono sempre di più. È attiva in luoghi come i terminali di check-in degli aeroporti, i negozi e anche alcune piattaforme di social media.

Perché il riconoscimento automatico del genere e dell'orientamento sessuale rappresenta una minaccia per le persone LGBT+?

Spesso questi software sono programmati per suddividere le persone in due gruppi: maschi e femmine. Le conseguenze per le persone il cui genere non corrisponde al sesso assegnato alla nascita possono essere gravi. Gli algoritmi sono inoltre programmati per rafforzare stereotipi sorpassati di razza e di genere, che possono risultare dannosi per tutti.

Gli algoritmi, inoltre, riproducono i pregiudizi sull'aspetto delle persone lesbiche, gay e bi, alimentando l’obsoleta ed erronea convinzione che l’identità si possa desumere dall'aspetto. E in mani malintenzionate, per esempio quelle delle forze dell’ordine nei paesi in cui vigono leggi anti-LGBT+, questi strumenti possono produrre danni considerevoli alle persone LGBT+.

Quali sono alcuni esempi dei danni che i software di riconoscimento automatico di genere e orientamento sessuale possono arrecare alle persone LGBT+?

  • Alle persone trans potrebbe essere negato l'accesso a spazi riservati a uno specifico genere, quali bagni e spogliatoi.

  • Le autorità dei paesi repressivi potrebbero usare il riconoscimento facciale per analizzare i filmati delle telecamere di sicurezza o i profili social al fine di rintracciare le persone presuntamente LGBT+ e arrestarle.

  • Se il software di sicurezza stabilisce che una persona non corrisponde al genere indicato sul suo passaporto, potrebbe essere fermata e interrogata all'aeroporto.

Che differenza c’è tra il riconoscimento automatico di genere e orientamento sessuale e il riconoscimento facciale?

A volte, per effettuare le loro previsioni, i sistemi automatici di riconoscimento del genere e dell'orientamento sessuale usano software di riconoscimento facciale (o l’analisi di altre caratteristiche biometriche come il modo di camminare). Tecnologie biometriche come il riconoscimento facciale possono inoltre essere usate da governi o aziende per condurre attività di sorveglianza di massa, minacciando la privacy e le libertà delle persone queer.

Perché l'Unione Europea dovrebbe vietare il riconoscimento automatico del genere e dell'orientamento sessuale?

Nell’aprile del 2021 la Commissione europea, ramo esecutivo dell'UE, intende proporre un quadro legislativo – ovvero un pacchetto di norme e linee guida – per regolamentare i sistemi d'intelligenza artificiale. È un’opportunità unica per vietare il riconoscimento automatico del genere e dell’orientamento sessuale nell’Unione europea e impedire che tali strumenti vengano esportati in tutto il mondo.

Cosa posso fare per contribuire a vietare il riconoscimento automatico del genere e dell'orientamento sessuale?

Condividi la nostra petizione e chiedi ai tuoi amici di domandare all'Unione Europea di vietare queste tecnologie che danneggiano le persone LGBT+.

CONDIVIDI QUESTA CAMPAGNA

Questa campagna è stata condotta in collaborazione con Access Now e Reclaim Your Face.

All Out collabora con Reclaim Your Face, la campagna europea per vietare il riconoscimento facciale e le tecnologie biometriche di sorveglianza di massa negli spazi pubblici. Queste tecnologie, che ci osservano e ci tracciano senza sosta, rappresentano una specifica minaccia alla libera espressione e alla privacy delle persone LGBT+. Se sei un cittadino dell'UE, puoi rafforzare il tuo sostegno alle persone LGBT+ firmando anche l'iniziativa dei cittadini europei per vietare la sorveglianza biometrica di massa.