¡Un robot no puede decidir quién eres!

El reconocimiento automático del género y la orientación sexual es científicamente erróneo, y pone en peligro la vida de las personas LGBT+. La Unión Europea tiene la oportunidad de prohibir esta tecnología y dar ejemplo al resto del mundo.

"El reconocimiento de género automatizado no es sólo una cuestión trans, es una cuestión de misoginia y patriarcado, porque hemos creado estas categorías estrechas para controlar lo que es masculino y lo que es femenino."

Cita editada de una persona trans de género no binario blanca (Fuente)

Cada vez son más los gobiernos y empresas que usan sistemas de inteligencia artificial para identificar y rastrear personas. Check-ins más rápidos en aeropuertos o una experiencia de compra personalizada son dos de los beneficios usados por quienes defienden esta tecnología. Y sí, puede tener sus beneficios. 

Pero esta tecnología tiene un error fundamental: No reconoce la diversidad de personas. 

Muchos de estos sistemas sólo clasifican a las personas en dos grupos, hombres o mujeres. Y las consecuencias son muy serias para las personas LGBT+ – en especial para aquellas que son no binarias, trans o travestis. 

Esta tecnología se basa en la idea errónea que el género y/o la orientación sexual de una persona se pueden determinar solo por su apariencia, su voz, su forma de caminar, o nada más por lo “masculino” o “femenino” que suene su nombre. Esto se llama discriminación – así de sencillo.

Dentro de poco, esta tecnología podría ser una realidad en todo el mundo. Imagina, por ejemplo, lo que pasaría en los países donde es crimen ser gay. 

En abril de 2021, la Comisión Europea va a definir directrices para regular los sistemas de inteligencia artificial en la Unión Europea. Esta es una oportunidad única de prohibir el reconocimiento automático de género y orientación sexual en la Unión Europa – y evitar que llegue a otros lugares del mundo. 

¡Firma la petición!

Firmas
Objetivo:  0

A la Comisión Europea, el Parlamento Europeo y el Consejo de la Unión Europea.

Cada vez más gobiernos y empresas usan sistemas de inteligencia artificial para identificar y rastrear personas. Pero estas tecnologías no fueron creadas con las personas LGBT+ en mente, y solo refuerzan prejuicios y formas de discriminación. 

Les pedimos que incluyan la prohibición del reconocimiento automático de género y orientación sexual en la futura estructura regulatoria sobre sistemas de inteligencia artificial. Este es un paso para garantizar que esta tecnología no sea desarrollada, implementada o utilizada por sectores públicos o privados en otros lugares del mundo.

Actualización

13 de marzo de 2024

El Parlamento Europeo aprobó hoy la Ley de Inteligencia Artificial. Esta legislación representa un avance en la mejora de la rendición de cuentas y la transparencia de las aplicaciones de IA consideradas de alto riesgo. Constituye una victoria parcial de esta campaña, ya que incluye la prohibición de la detección automatizada de la orientación sexual por parte de herramientas de IA. Sin embargo, esta victoria se ve empañada por la presencia de lagunas dentro de la propia prohibición, que socavan las protecciones aparentemente proporcionadas a las personas LGB. Además, la no promulgación por parte de la Ley de una prohibición total del reconocimiento automatizado de género se erige como una deficiencia importante, lo que genera profundas preocupaciones sobre la privacidad e integridad individuales. Si bien reconocemos los avances logrados, también debemos destacar los desafíos que quedan. Será necesario trabajar más para garantizar que la tecnología de IA sea beneficiosa y segura para todos, incluidos los miembros de la comunidad LGBT+.

8 de diciembre de 2023

El trílogo entre las instituciones de la UE concluyó esta noche, después de más de 36 horas de intensas negociaciones. Como resultado, se anunció una prohibición del uso de la biometría para clasificar atributos sensibles, incluida la orientación sexual y la identidad de género. Sin embargo, la redacción de esta prohibición podría dejar involuntariamente vacíos significativos. Además, parece que las restricciones no impedirán que los proveedores exporten sistemas de inteligencia artificial prohibidos a países fuera de la UE. En consecuencia, es prematuro declarar la victoria, y el acuerdo general puede describirse como moderadamente satisfactorio en el mejor de los casos. Nuestra lucha continuará.

14 de junio de 2023

Hoy, el Parlamento Europeo escuchó nuestro llamado para prohibir las prácticas de vigilancia masiva biométrica, incluidos los sistemas de IA que perfilan el género, la sexualidad, la etnia o las emociones. Esta es una gran noticia y demuestra el impacto que podemos tener cuando unimos nuestras fuerzas. Sin embargo, para prohibir estas tecnologías defectuosas y perjudiciales de una vez por todas, necesitamos aumentar la presión para asegurarnos de que las tres instituciones europeas implicadas en el proceso legislativo lleguen a un acuerdo.

06 de junio de 2023

Hoy, junto a nuestras organizaciones colaboradoras, llevamos tu mensaje directamente ante el Parlamento Europeo: ¡la inteligencia artificial no puede decidir quién eres! Les exigimos que tomen la decisión correcta en la votación plenaria del 14 de junio y que prohíban los sistemas de IA que procuran determinar género, sexualidad, etnia o emociones. Sin embargo, nuestra labor no está completa, y necesitamos tu apoyo continuo para garantizar un futuro que respete la privacidad y la dignidad humana.

18 de junio de 2021

El Centro Europeo de Protección de Datos publicó un comunicado sobre el proyecto de ley sobre inteligencia artificial (IA) propuesto por la Comisión Europea. Pide "una prohibición general de cualquier uso de IA para un reconocimiento automatizado de rasgos humanos en espacios públicos". Esta es una buena noticia porque podría incluir también el reconocimiento automatizado del género y la orientación sexual. (Fuente - en inglés)

21 de abril de 2021

El marco jurídico propuesto hoy por la Comisión Europea reconoce la necesidad de prohibir algunos sistemas de IA para proteger los derechos fundamentales. Sin embargo, es un documento muy vago y que tiene vacíos legales.

Lo más importante: No se ha prohibido el reconocimiento automatizado de género y orientación sexual. Se trata de una oportunidad perdida. Por eso, aumentaremos la presión sobre el Parlamento Europeo y el Consejo de la Unión Europea para que incluyan la prohibición de estas herramientas dañinas en los próximos pasos del proceso legislativo.

"¡Las personas ya confunden mucho mi género! ¿Por qué diablos querría yo que un robot hiciera lo mismo? Incluir esta confusión de género en la programación de una máquina sólo aumenta este océano de pequeños comentarios constantes en el que nadamos. Es como matar a alguien poco a poco."

Cita editada y traducida de una persona blanca no binaria (Fuente)

"No hay pruebas de que el reconocimiento automatizado del género tenga beneficios significativos. Pero el daño causado, sí es demostrable. Las personas trans deberían estar preocupadas. Es una tecnología que no funciona para nada, pero siempre habrá gente dispuesta a ponerla en práctica."

Cita editada y traducida de una persona blanca no binaria (Fuente

"Ya hay muchos ojos observando a las personas trans, y sentimos cada uno de ellos encima. No necesitamos más ojos que ahora vengan de robots. Me sentiría agredida al saber que las cámaras de seguridad están tratando de identificar mi género todo el tiempo. Creo que me expondría a mucha violencia innecesaria."

Cita editada y traducida de una mujer negra trans (Fuente)
PREGUNTAS FRECUENTES

¿Qué significa reconocimiento automatizado de género y orientación sexual?

Se trata de un tipo de tecnología que intenta identificar el género y orientación sexual de una persona analizando su nombre, su apariencia, su voz y/o su forma de caminar. Es decir, no reconoce el género ni la orientación sexual. Solo lo intenta y, con frecuencia, falla.


¿Dónde se está usando este tipo de reconocimiento?

Un número cada vez mayor de gobiernos y empresas usa este tipo de tecnología para identificar, rastrear y obtener información sobre las personas. Se usa mucho, por ejemplo, para agilizar los check-ins en el aeropuerto y compras en tiendas. Esta tecnología también se utiliza para ofrecer experiencias de compra, supuestamente, "hechas a la medida".


¿Por qué este tipo de reconocimiento es una amenaza para las personas LGBT+?

Muchos de estos sistemas solo consiguen clasificar a las personas en dos grupos, hombres y mujeres. Las consecuencias son muy serias para las personas LGBT+ – particularmente para las no binarias, trans y travestis.

La idea de que se puede saber el género o la orientación sexual de una persona solo por su apariencia refuerza prejuicios contra las personas LGBT+. El peligro es aún mayor si esta tecnología empieza a utilizarse, por ejemplo, en países donde es un delito ser gay.

Además, estas tecnologías están programadas de forma que refuerzan estereotipos prejuiciosos sobre raza y género, que son perjudiciales para todas las personas, sean o no LGBT+.



¿Cuáles son algunos ejemplos de los problemas que estas tecnologías pueden traer a las personas LGBT+?

  • Un ejemplo es la posibilidad de que a las personas se les niegue el acceso a espacios “exclusivos” para un género específico, como baños públicos y vestidores.

  • Otra posibilidad es que una persona sea detenida e interrogada en el aeropuerto si la tecnología determina que ella no coincide con el género que aparece en su documento.

  • Los riesgos aumentan en países con leyes o políticas LGBTfóbicas, donde el gobierno puede utilizar esta tecnología para identificar, rastrear y detener a personas “sospechosas” de ser LGBT+.

    Y estos son solo algunos ejemplos.


¿El reconocimiento automático de género y orientación sexual es lo mismo que reconocimiento facial?

El reconocimiento facial es uno de varios tipos de tecnología usados en sistemas que hacen reconocimiento automático de género u orientación sexual. 

Estos programas hacen sus predicciones sobre orientación sexual y género usando reconocimiento facial y otros tipos de análisis biométricos – por ejemplo, las características físicas de una persona, como la forma en la que la persona camina, su voz, la forma de su rostro...

Y estas tecnologías de reconocimiento también pueden ser utilizadas por gobiernos o empresas para realizar vigilancia masiva, que amenaza con la libertad de personas LGBT+.



¿Qué puede hacer la Unión Europea para prohibir este tipo de tecnologías? ¿Y qué tiene que ver conmigo si no estoy en Europa?

En abril, la Comisión Europea va a definir una serie de lineamientos para regular los sistemas de inteligencia artificial en la Unión Europea.

Si Europa prohíbe estas tecnologías, hay grandes posibilidades de que otros países sigan el mismo camino. Es decir, presionar a la Unión Europea en este momento es una buena forma de evitar que estas tecnologías se esparzan al resto del mundo.



¿Qué puedo hacer para ayudar a impedir el reconocimiento automatizado de género y orientación sexual?

¡Firma la petición ahora mismo!

COMPARTE ESTA CAMPAÑA

Esta campaña es realizada en alianza con Access Now y Reclaim Your Face.

All Out se alió con Reclaim Your Face, una campaña europea que busca prohibir el uso perjudicial de reconocimiento facial y otras tecnologías de vigilancia biométrica masiva en espacios públicos. Al vigilarnos y rastrearnos todo el tiempo, estas tecnologías suponen una amenaza para la libertad de expresión y la privacidad de las personas LGBT+. Si vives en Europa, además de esta petición, puedes manifestarte en contra de la vigilancia biométrica masiva firmando la Iniciativa Ciudadana Europea sobre el tema.