Um computador não pode decidir quem você é!

O reconhecimento automatizado de gênero e orientação sexual é cientificamente falho e coloca a vida de pessoas LGBT+ em risco. A União Europeia tem a oportunidade de banir esta tecnologia e dar o exemplo para o mundo.

"O reconhecimento automatizado de gênero não é apenas uma questão trans, é uma questão de misoginia e patriarcado, porque criamos essas categorias estreitas para controlar o que é masculino e o que é feminino."

Citação editada de uma pessoa trans de gênero não-binário e branca (Fonte)

Um número crescente de governos e empresas usa sistemas de inteligência artificial para identificar e rastrear pessoas. Check-ins mais rápidos em aeroportos ou uma experiência de compra perfeita e personalizada são dois dos benefícios usados por quem defende essa tecnologia.

Mas essa tecnologia tem uma falha fundamental: ela não reconhece a diversidade das pessoas.

Muitos desses sistemas só conseguem classificar as pessoas em dois grupos, homens ou mulheres. As consequências são muito sérias pra pessoas LGBT+ – particularmente as que são não-binárias, trans e travestis.

Esse tipo de tecnologia se baseia na ideia equivocada de que o gênero e/ou a orientação sexual de uma pessoa podem ser determinados com base na sua aparência, voz, no jeito que ela anda, ou simplesmente por quão “masculino” ou “feminino” é o nome dela. Ou seja, é um prato cheio pra discriminação.

Em breve, essas ferramentas podem ser uma realidade em boa parte do mundo. Imagine, por exemplo, o que isso representaria em países onde é crime ser gay.

Em abril, a Comissão Europeia vai definir uma série de diretrizes pra regular os sistemas de inteligência artificial na União Europeia. Essa é uma oportunidade única de proibir o reconhecimento automático de gênero e orientação sexual na União Europeia – e evitar que ele seja exportado pro mundo todo. 

Assine o abaixo-assinado!

Assinaturas
Objetivo:  0

PARA: Comissão Europeia, Parlamento Europeu e Conselho da União Europeia.

Um número crescente de governos e empresas usa sistemas de inteligência artificial para identificar e rastrear pessoas. Mas essas tecnologias não foram projetadas com pessoas LGBT+ em mente e reforçam preconceitos e a discriminação já existentes.

Pedimos que incluam a proibição do reconhecimento automatizado de gênero e orientação sexual na futura estrutura regulatória sobre sistemas de inteligência artificial. Este é um passo para garantir que essa tecnologia não seja desenvolvida, implantada ou usada por entidades públicas ou privadas no mundo todo.

Atualização

13 de março de 2024

Hoje, o Parlamento Europeu aprovou a Lei da Inteligência Artificial. Esta legislação representa um avanço no reforço da responsabilização e da transparência sobre o uso da inteligência artificial (IA) considerada de alto risco. A lei representa uma vitória parcial desta campanha, uma vez que inclui a proibição da deteção automática da orientação sexual por ferramentas de IA. Porém, esta vitória é atenuada pela presença de lacunas na própria proibição, que minam as proteções ostensivamente concedidas a gays, lésbicas e bissexuais.. Além disso, o fato de a lei não ter decretado a proibição total do reconhecimento automático de gênero constitui uma lacuna significativa, que suscita grandes preocupações quanto à privacidade e integridade individuais. Embora reconheçamos os progressos alcançados, temos também de ressaltar os desafios que ainda existem. Será necessário mais trabalho pra garantir que a tecnologia de IA beneficie e seja segura pra todas as pessoas, incluindo a comunidade LGBT+.

8 de dezembro de 2023

As discussões entre as três instituições da União Europeia foram concluídas esta noite, após mais de 36 horas de intensas negociações. Como resultado, foi anunciada a proibição do uso da biometria para classificar atributos sensíveis, incluindo orientação sexual e identidade de gênero. Porém, a redação dessa proibição pode, involuntariamente, deixar brechas significativas. Além disso, parece que as restrições não impedirão que os provedores exportem sistemas de Inteligência Artificial proibidos para países fora da União Europeia. Consequentemente, é prematuro declarar vitória, e o acordo geral pode ser descrito como moderadamente satisfatório, na melhor das hipóteses.

14 de junho de 2023

Hoje, o Parlamento Europeu ouviu nosso apelo pra proibir práticas de reconhecimento biométrico em massa, incluindo sistemas de inteligência artificial que traçam perfis de gênero, sexualidade, etnia ou emoções. Essa é uma ótima notícia e mostra o impacto que podemos ter quando unimos forças. Porém, pra banir de uma vez por todas essas tecnologias falhas e prejudiciais, precisamos aumentar a pressão pra garantir que as três instituições europeias envolvidas no processo legislativo cheguem a um acordo.

06 de junho de 2023

Hoje, junto com nossas organizações parceiras, levamos sua mensagem diretamente ao Parlamento Europeu: A inteligência artificial não pode decidir quem você é! Pedimos que fizessem a coisa certa na votação em plenária do dia 14 de junho, proibindo os sistemas de inteligência artificial que traçam perfis de gênero, sexualidade, etnia e emoções. Mas nosso trabalho ainda não acabou e precisamos de seu apoio contínuo pra exigir um futuro que garanta a privacidade e a dignidade humana.

18 de junho de 2021

O Conselho Europeu de Proteção de Dados publicou um parecer sobre o projeto de lei da Comissão Europeia que pretende regular os usos da inteligência artificial. O Conselho pede "uma proibição geral de qualquer uso de inteligência artificial para reconhecimento automatizado de características humanas em espaços publicamente acessíveis". Isso é uma boa notícia, já que também poderia incluir o reconhecimento automatizado do gênero e da orientação sexual. (Fonte, em inglês)

21 de abril de 2021

A proposta legal apresentada hoje pela Comissão Europeia reconhece que há, sim, necessidade de proibir alguns sistemas de inteligência artificial pra proteger os direitos fundamentais de todas as pessoas. Entretanto, as proibições propostas são muito vagas e cheias de lacunas. Além disso, a lista de aplicações proibidas das tecnologias não entra em detalhes suficientes sobre o reconhecimento automatizado do gênero e da orientação sexual, o que é uma oportunidade perdida. Vamos aumentar a pressão sobre o Parlamento Europeu e o Conselho da União Européia para garantir que incluam uma proibição dessas tecnologias perigosas nas próximas etapas do processo legislativo.

"As pessoas já confundem tanto meu gênero! Por que diabos eu iria querer um robô pra ajudá-las nisso? Incluir a confusão de gênero na programação de uma máquina apenas aumenta esse oceano de pequenos e constantes comentários onde a gente nada. É como matar alguém aos pouquinhos."

Citação editada e traduzida de uma pessoa não-binária branca (Fonte)

"Não há comprovação de que o reconhecimento automatizado de gênero tenha benefícios significativos. Mas os danos causados, sim, são comprováveis. Pessoas trans devem se preocupar. É uma tecnologia ruim e não funciona, mas sempre haverá pessoas dispostas a botá-la em uso."

Citação editada e traduzida de uma pessoa não-binária branca (Fonte

"Já existem tantos olhos vigiando pessoas trans, e sentimos cada um deles. Não precisamos de mais olhos, agora vindo de máquinas robotizadas. Eu me sentiria agredida sabendo que câmeras de segurança estão, o tempo todo, tentando identificar meu gênero."

Citação editada e traduzida de uma pessoa trans feminina negra (Fonte)
Perguntas frequentes

O que significa reconhecimento automatizado de gênero e orientação sexual?

Trata-se de um tipo de tecnologia que tenta identificar o gênero e orientação sexual de uma pessoa analisando seu nome, aparência, voz e/ou como ela anda. Ou seja, ela não reconhece de fato o gênero ou orientação sexual. Ela só tenta e erra com frequência.


Onde esse tipo de reconhecimento já está sendo usado?

Um número cada vez maior de governos e empresas usa esse tipo de reconhecimento pra identificar, rastrear e ter informações sobre as pessoas. Essa tecnologia é muito usada, por exemplo, pra agilizar check-ins de aeroporto e compras em lojas. Ela também permite oferecer experiências online supostamente mais alinhadas com os interesses de cada pessoa.


Por que esse tipo de reconhecimento é uma ameaça pra pessoas LGBT+?

Muitos desses sistemas só conseguem classificar as pessoas em dois grupos, homens ou mulheres. As consequências são muito sérias pra pessoas LGBT+ – particularmente as que são não-binárias, trans e travestis.

A ideia de que é possível prever o gênero ou orientação de uma pessoa com base na aparência dela reforça preconceitos contra pessoas LGBT+. O perigo é ainda maior se essa tecnologia começa a ser utilizada, por exemplo, em países onde é crime ser gay.

Além disso, essas tecnologias são programadas de uma forma que reforça estereótipos preconceituosos sobre raça e gênero, que são prejudiciais pra todas as pessoas, LGBT+ ou não.


Quais são alguns exemplos dos problemas que essas tecnologias podem causar às pessoas LGBT+?

  • Um exemplo é a possibilidade de que pessoas tenham seu acesso negado a espaços "exclusivos" para um gênero em específico, como banheiros e vestiários.

  • Outra possibilidade é que uma pessoa seja parada e interrogada no aeroporto se o programa de segurança determinar que ela não corresponde ao gênero que aparece em seu documento.

  • Os riscos aumentam em países com leis ou políticas LGBTfóbicas, onde o governo pode utilizar essa tecnologia para identificar, rastrear e prender pessoas "suspeitas" de serem LGBT+.

    E esses são só alguns exemplos.



O reconhecimento automático de gênero e orientação sexual é a mesma coisa que o reconhecimento facial?

Reconhecimento facial é um dos vários tipos de tecnologia usados nos sistemas que fazem o reconhecimento automático de gênero e orientação sexual. 

Esses programas fazem suas "previsões" sobre orientação sexual e gênero usando, além do reconhecimento facial, outros tipos de análises biométricas – ou seja, analisando as características físicas de uma pessoa. Por exemplo: a forma como uma pessoa caminha, sua voz, o formato do seu rosto... 

E essas tecnologias de reconhecimento também podem ser usadas por governos ou empresas pra realizar vigilância em massa, o que ameaça a liberdade de pessoas LGBT+.



O que a União Europeia pode fazer pra proibir esse tipo de tecnologia? E o que isso tem a ver comigo, se eu não estou na Europa?

Em abril, a Comissão Europeia vai definir uma série de diretrizes pra regular os sistemas de inteligência artificial na União Europeia. 

Se a Europa proibir essas tecnologias, as chances de que outros países (como o nosso) sigam pelo mesmo caminho são grandes... Ou seja, pressionar a União Europeia nesse momento é uma boa forma de evitar que essas tecnologias se espalhem pelo mundo.



O que posso fazer para ajudar a impedir o reconhecimento automatizado de gênero e orientação sexual?

Assine o abaixo-assinado!

COMPARTILHE ESTA CAMPANHA

Esta campanha é realizada em parceria com a Access Now e a Reclaim Your Face.

A All Out é parceira da Reclaim Your Face, campanha europeia que busca proibir a utilização prejudicial do reconhecimento facial e outras tecnologias de vigilância biométrica em massa nos espaços públicos. Por nos observarem e rastrearem o tempo todo, essas tecnologias representam uma ameaça à liberdade de expressão e à privacidade de pessoas LGBT+. Se você vive na Europa, além deste abaixo-assinado, você pode se manifestar contra a vigilância biométrica em massa assinando a Iniciativa de Cidadania Europeia sobre o assunto.