AI gaydar y las consecuencias para la privacidad Queer en África

Crédito: CanY71 / iStock

A medida que el uso de la IA se va introduciendo en la vida cotidiana de diversas formas, desde laboratorios de diagnóstico hasta aplicaciones de citas, se abre una nueva y preocupante frontera: los sistemas que afirman detectar la sexualidad humana a través de «clasificadores» algorítmicos. Este «gaydar de IA» puede resultar emocionante para algunos desarrolladores en climas occidentales, pero plantea graves riesgos para las personas queer en regiones como el África subsahariana, donde el despliegue —incluso la percepción— de dicha tecnología puede exacerbar las vulnerabilidades existentes, permitiendo una vigilancia invasiva, salidas forzadas y ataques por parte de actores estatales y no estatales.

El problema de utilizar la IA para detectar la sexualidad

La búsqueda de la detección algorítmica de la sexualidad ha cobrado impulso en los círculos académicos. En 2017, investigadores de Stanford afirmaron que su IA podía identificar la orientación sexual con una precisión del 81 % en el caso de los hombres y del 74 % en el de las mujeres. Utilizando las mismas arquitecturas de redes neuronales al año siguiente, un estudio de la Universidad de Pretoria arrojó tasas más bajas, pero aún significativas, del 63 % y el 72 %, respectivamente. Y luego, en 2023, investigadores suizos informaron de una tasa de precisión del 83 % para identificar a hombres homosexuales utilizando modelos de aprendizaje profundo. Estos hallazgos plantean dos perspectivas escalofriantes: la (mala) conexión potencial entre la sexualidad y los patrones neuronales y, lo que es más crítico, una amenaza inminente para las personas queer que viven en estados homofóbicos en una era de vigilancia omnipresente por parte de la IA.

El «gaydar de IA» se basa en una extensa minería de datos para perfilar a las personas. Por ejemplo, el estudio de Stanford analizó más de 35 000 imágenes faciales de sitios web de citas de EE. UU. y concluyó que las personas homosexuales suelen mostrar rasgos faciales, expresiones y estilos de aseo «atípicos» en cuanto al género. El concepto de «gaydar de IA» ha sido desestimado por peligroso y pseudocientífico, y su precisión se considera muy cuestionable. Sin embargo, el debate ha ignorado en gran medida su impacto potencial en las vidas de las personas queer en regímenes represivos, particularmente en el África subsahariana. La privacidad digital sigue siendo un tema controvertido en esta región, especialmente para las personas queer que denuncian los riesgos elevados y desproporcionados de la vigilancia tecnológica, el doxxing y el acoso en línea selectivo.

Dado que el impacto de los sistemas de IA es desterritorial (es decir, no se limita a un solo país o ubicación geográfica) y la mayoría del software en África se importa (principalmente de Occidente), es probable que estos problemáticos modelos de aprendizaje profundo también lleguen a lugares donde los gobiernos o los grupos homófobos puedan explotarlos.

Por encima, novedad; por debajo, pesadilla: el «gaydar de IA» como ejemplo de nuestra contradicción digital global

En toda África, muchas personas queer viven con el miedo constante de ser delatadas y sometidas a leyes severas, enfrentándose a riesgos que van desde el arresto y el encarcelamiento hasta la devastadora realidad de la pena de muerte. Internet y las redes sociales pueden proporcionar a algunas personas queer un espacio poco común para la autoexpresión y la visibilidad, pero esto ha llevado a muchos gobiernos y líderes a intensificar su represión y sus abusos.

Por ejemplo, en Egipto, la policía utiliza aplicaciones de citas para atrapar y arrestar a personas homosexuales. En Uganda, además de la prescripción de la pena de muerte por «homosexualidad agravada», en 2023, el presidente firmó una reciente propuesta para castigar las relaciones entre personas del mismo sexo con cadena perpetua. Describió a los homosexuales como «muy peligrosos para la humanidad» y pidió a los reguladores de toda África que prohibieran la expresión queer en Internet. El presidente de Burundi también dijo de los homosexuales: «Si encontramos a este tipo de personas..., es mejor llevarlos a un estadio y apedrearlos».

En este tipo de clima, donde los sentimientos antigay que rayan en el genocidio son bastante populares, las personas queer de esta región solo pueden encontrar seguridad en los espacios en línea, incluidas las aplicaciones de citas, donde pueden formar nuevos vínculos en forma de amistades, familia elegida o amor. Algunas personas queer informan de que ahora también utilizan herramientas de IA generativa para acceder a información vital sobre su salud mental y bienestar. La desventaja obvia es que estos santuarios digitales corren ahora el riesgo de convertirse en trampas en una era de vigilancia algorítmica. Los mismos datos que producen las personas queer (ya sea a través de interacciones en redes sociales, aplicaciones de citas o incluso el uso de plataformas aparentemente inocuas) pueden convertirse en un recurso para los desarrolladores que están creando herramientas pseudocientíficas o experimentos fraudulentos como el «gaydar de IA».

Por lo tanto, sin una protección adecuada de la privacidad de los datos que sea específica para cada contexto, las huellas digitales de las personas queer pueden ser explotadas no solo por investigadores ávidos de experimentos de IA «geniales», sino también por gobiernos represivos o actores cuya disposición homofóbica puede conducir a resultados más peligrosos. Y con la propensión de los sistemas de IA a ser sesgados y propensos a errores, el daño potencial aquí se extiende no solo a las personas queer, sino a cualquiera y a todos los que puedan ser identificados falsamente o señalados como «atípicos», amplificando el alcance del sesgo algorítmico y la discriminación.

Otra pseudociencia en la era de la IA

A medida que salgan a la luz más experimentos de este tipo de «IA gaydar», las personas queer se verán quizá abocadas a un angustioso dilema: abandonar las páginas web y aplicaciones de citas para no ser susceptibles de ser objeto de tales productos de IA o blanco de persecución o, peor aún, correr el riesgo de ser borrados, una profunda violación de su derecho fundamental a la expresión y a la existencia.

En una época en la que la identidad queer se considera más como una forma de expresión personal y la definición se vuelve mucho más flexible de lo que era hace una década, la premisa misma de tales experimentos se vuelve obsoleta e innecesaria. Una cosa es crear un sistema de IA que se base en conjuntos de datos con una representación inclusiva y diversa de orientaciones sexuales e identidades de género; otra cosa es crear uno que se centre en ellas. Probablemente se recomiende lo primero, pero lo segundo (si no está bien fundamentado) puede perpetuar los estereotipos y reducir las complejas cualidades humanas a categorizaciones algorítmicas simplistas que no tienen ningún propósito constructivo.

Una necesidad urgente de «privacidad grupal» en esta era de la IA

En esta era de análisis de datos avanzados e IA, las características de grupo (por ejemplo, de un grupo étnico, ascendencia, orientación sexual o incluso un grupo de pacientes en particular) pueden identificarse y utilizarse de formas que afecten al grupo. Por lo tanto, debe priorizarse la protección de la privacidad de los grupos marginados, no solo a nivel individual sino también colectivo, para evitar la discriminación y garantizar su capacidad de ejercer sus derechos fundamentales.

Una perspectiva comunitaria sobre la privacidad y la protección de datos para los desarrolladores y reguladores de la IA debería complementar la visión atomista dominante de la protección de la privacidad. De manera similar a lo que se ha reconocido en el sistema africano de derechos humanos, el reconocimiento y la protección de la privacidad grupal de las poblaciones vulnerables puede aplicarse aquí. Por ejemplo, en varios países del África subsahariana donde las reuniones queer en persona suelen ser inseguras, Internet, las aplicaciones y otras tecnologías proporcionan un raro salvavidas. Con el tiempo, estas comunidades han desarrollado y utilizado un vocabulario, señales y otras formas de lenguaje de grupo específicos. En este contexto, queda claro que la protección de la privacidad de su grupo también es fundamental, ya que cualquier violación o abuso puede deshacer todos estos esfuerzos.

El desarrollo incontrolado de sistemas de IA capaces de predecir la orientación sexual revela una evidente laguna normativa. Esta falta de supervisión en varias jurisdicciones es lo que permite a algunos desarrolladores extraer datos confidenciales, a menudo recopilados sin consentimiento informado, para alimentar proyectos como el «gaydar de IA». Las empresas tecnológicas y los investigadores tienen la responsabilidad internacional de garantizar que los derechos humanos se respeten siempre a lo largo de sus ciclos de formación y experimentación. El beneficio y la innovación nunca deben ir en detrimento de la privacidad de las personas y las comunidades y de su derecho a existir libres de vigilancia y daño.