Imagínese que llama a su banco para resolver un problema, pero de repente el representante del servicio de atención al cliente le acusa de fraude y le amenaza con suspenderle la cuenta bancaria si no pasa el "verdadero" usted. ¿Por qué? Porque su sistema de reconocimiento de voz por inteligencia artificial (IA) ha llegado a la conclusión de que su voz no es lo bastante "masculina" como para coincidir con sus registros. Esta es una experiencia universal entre las personas transgénero, incluido yo mismo, y es sólo uno de los riesgos significativos que la IA plantea a la comunidad LGBTQI+.
La IA, que se refiere a las aplicaciones informáticas que demuestran capacidades de inteligencia humana, se está infiltrando rápidamente en diversos aspectos de nuestras vidas. Sin embargo, la investigación sobre los profundos riesgos de las tecnologías de IA para las comunidades marginadas y las formas de mitigar estos riesgos no va a la par de la velocidad de su desarrollo. Aunque la IA puede ser útil en algunos ámbitos, puede facilitar las violaciones de los derechos humanos y agravar la discriminación contra las personas con diversidad sexual y de género. Las empresas privadas y los gobiernos deben abordar estos riesgos de forma integral con medidas basadas en los derechos humanos y la participación de la comunidad lo antes posible.
Descodificar la humanidad: Las limitaciones de la aproximación de la IA a la identidad
Existe un preocupante crecimiento de sistemas que afirman ser capaces de identificar a las personas LGBTQI+ mediante un análisis de sus rasgos faciales, voz, conexiones sociales, pertenencia a grupos, comportamiento de los clientes e incluso filtros de fotos de perfil. Sin embargo, el software es incapaz de determinar con precisión la orientación sexual y la identidad de género de las personas, ya que estas características personales y profundamente sentidas no pueden discernirse únicamente a partir de factores externos, pueden cambiar con el tiempo y pueden no ajustarse a las construcciones occidentales y a los conjuntos de datos utilizados para entrenar la IA.
Por ejemplo, como los conjuntos de datos suelen confundir identidad de género y características sexuales, la IA falla inevitablemente a las personas transgénero. El costo de los errores en la identificación de género puede ir desde la prohibición de un perfil en una aplicación de citas, pasando por la clasificación errónea de personas transgénero, la suspensión de sus cuentas bancarias y el sometimiento a controles de seguridad invasivos en el aeropuerto.
Además, los sistemas automatizados de clasificación de género pueden fallar a las personas intersexuales, que tienen características sexuales que no se ajustan a las expectativas sociales sobre los cuerpos masculinos o femeninos. Por ejemplo, los algoritmos de IA entrenados a partir de conjuntos de datos de personas endosexuales, como el seguimiento de la menstruación o las aplicaciones de autodiagnóstico, las pruebas y los controles prenatales basados en IA, y los anuncios dirigidos basados en IA que promueven intervenciones médicas perjudiciales, pueden proporcionar a las personas intersexuales y a sus padres información inadecuada o sesgada y contribuir a decisiones médicas mal informadas y a sus consecuencias irreversibles.
Además, los conjuntos de datos comerciales utilizados para entrenar la IA refuerzan estereotipos poco realistas sobre las personas LGBTQI+ como aquellas que tienen un aspecto determinado, compran ciertos productos, pueden revelar con seguridad su orientación sexual en línea y quieren pasar tiempo en las redes sociales. Mejorar la tecnología no aliviará estos problemas porque las personas pueden tener cualquier apariencia o comportamiento independientemente de su orientación sexual o identidad de género.
Incluso en el caso de una identificación satisfactoria, la IA puede causar daños. Por ejemplo, la publicidad dirigida por IA o la información sobre salud pública pueden delatar a un niño a una familia homófoba en un ordenador compartido o identificar a adultos vulnerables para prácticas de conversión.
Del mismo modo, la investigación sugiere que los algoritmos de IA tienen dificultades para distinguir entre el discurso peligroso y el ordinario en el contexto LGBTQI+. Los casos de censura perjudicial en las redes sociales incluyen la restricción de los nombres de las personas transexuales, la censura de la "mala educación simulada" de las drag queens, la eliminación de contenidos benignos, la prohibición de perfiles y la demonización de videos. Al mismo tiempo, los algoritmos de IA pueden pasar por alto contenidos peligrosos. Estos errores provocan una sensación traumática cuando se borra la propia identidad y causan autocensura y un efecto amedrentador en la autoexpresión de las personas LGBTQI+, incluido el activismo digital.
La opresión de la diversidad sexual y de género impulsada por la IA
Cuando se entrena con datos sesgados o se programa de forma discriminatoria, la IA absorbe y perpetúa los prejuicios que circulan en la sociedad y los reproduce de forma autónoma. Sin embargo, los peligros para la comunidad LGBTQI+ son los más importantes cuando las tecnologías de IA se utilizan con la intención de perjudicar, por ejemplo, para generar contenidos nocivos o para atacar a la comunidad de forma más eficiente.
La llegada de la IA puede elevar el nivel de las tácticas de persecución de los gobiernos homófobos para vigilar y castigar a las personas LGBTQI+ con una rapidez y sofisticación sin precedentes. Más pronto que tarde, los gobiernos prejuiciosos de todo el mundo podrán aplicar la IA para perseguir y desprestigiar a las personas LGBTQI+, activistas y aliades mediante el análisis de su actividad en línea, conexiones y comunidades, contactos en teléfonos móviles, historial de streaming en línea, hoteles y alquileres, viajes en taxi, etc. El gobierno ruso ya ha puesto en marcha un sistema basado en IA destinado a identificar contenidos "ilegales" en línea para hacer cumplir la ley de "propaganda gay".
Además, las autoridades gubernamentales podrían coartar la libertad de reunión al detectar de forma inmediata los anuncios de actos públicos comunitarios e identificar a los manifestantes mediante reconocimiento facial tras dichos actos. Por último, los agentes privados, como las redes sociales y las editoriales, pueden utilizar la IA para censurar contenidos LGBTQI+ o discriminar a los solicitantes de empleo o de seguros.
Proteger a la comunidad LGBTQI+ en la era de la IA
Las tácticas jurídicas convencionales, como la prohibición de la discriminación y las demandas por litigio estratégico, podrían estar mal equipadas para hacer frente a estos peligros, en especial en países que no son acogedores para la comunidad LGBTQI+. Por ejemplo, demostrar la intencionalidad en las demandas por discriminación directa podría resultar imposible debido a la opacidad de los sistemas basados en la IA. Además, los mecanismos jurídicos tradicionales de derechos humanos se basan en la responsabilidad de los agentes estatales. Sin embargo, muchos de los daños mencionados son causados por máquinas, agentes privados o gobiernos autoritarios que carecen de Estado de derecho.
Por lo tanto, una parte significativa de la responsabilidad de prevenir el uso poco ético de la IA debería recaer en las empresas privadas. Deben implicar a la comunidad y las organizaciones LGBTQI+ en el diseño y la evaluación de los sistemas de inteligencia artificial, revocar cualquier tecnología que intente identificar el género y la orientación sexual, y evitar ayudar a la homofobia de Estado en todo el mundo.
Las omnipresentes directrices éticas sobre la IA deberían sustituirse por políticas basadas en los derechos humanos, ya que estas políticas constituyen un conjunto de principios universales reconocidos internacionalmente que no se ven limitados por una única escuela de pensamiento ético y pueden aplicarse mejor mediante mecanismos de supervisión y rendición de cuentas. Estas directrices se pueden reforzar mediante una interpretación autorizada de las obligaciones internacionales existentes en materia de derechos humanos, así como mediante la adopción de leyes nacionales. Una posible medida legal es la prohibición total de las tecnologías de IA que pretendan identificar la orientación sexual y la identidad de género (de cualquier forma o con fines policiales), como han sugerido los políticos y la sociedad civil. Por último, pueden ser necesarias soluciones diferentes para el uso discriminatorio no intencionado o intencionado de la IA.