Me sorprende la confianza que se tiene este jovencito y cómo se refiere a sí mismo en tercera persona, a la manera de algunos políticos. Pero tengo que reconocer la calidad de la respuesta. Si fuera la de un estudiante en un examen, seguramente le habría puesto una buena nota.
Quizás esa ambigüedad —esa mezcla de fascinación y extrañeza, espolvoreada con dosis variables de sospecha y pavor según el tema y el día— sea el tono que domina el debate incipiente acerca de las consecuencias para los derechos humanos de modelos como ChatGPT. Así lo muestran los ensayos que inauguran la nueva serie de artículos de Open Global Rights sobre el tema: la inteligencia artificial generativa puede aumentar la desinformación y las mentiras en línea, pero también puede ser una herramienta formidable para ejercer legalmente la libertad de expresión; puede proteger o minar los derechos de los migrantes y refugiados, según se use para vigilarlos o para detectar patrones de abusos contra ellos; y puede ser útil para grupos tradicionalmente marginados, pero también aumenta los riesgos de discriminación contra comunidades como la LBGBTI+, cuyas identidades fluidas a menudo no encajan en las casillas algorítmicas de las inteligencias artificiales.
Detecto una ambigüedad similar en la respuesta de ChatGPT, lo cual era de esperarse, si se tiene en cuenta que es un modelo lingüístico que sintetiza (otros dirían que roba) ideas compartidas por los humanos en la red. Con disciplina, resalta tres aportes de su tecnología a los derechos humanos: mayor acceso a la información, mejores traducciones entre idiomas y más análisis de datos y predicción de tendencias sobre temas relevantes, que son avances que facilitarían la investigación y la denuncia de violaciones de derechos en todo el mundo. Y cierra con sendos riesgos: que se reproduzca la discriminación contra grupos estigmatizados en la información que devora, que transgreda la privacidad por el uso de datos personales y que se preste para abusos porque “ChatGPT puede ser difícil de entender y analizar, lo cual impide responsabilizar a sus usuarios”. Nótese que se refiere a la responsabilidad de los usuarios, no de las compañías creadoras de la tecnología, que se siguen resistiendo a revelar lo que saben y no saben sobre cómo funciona. Quizás hayan programado a la criatura para que no reniegue de sus padres.
Aunque estos efectos son importantes, creo que los analistas, tanto humanos como virtuales, tienden a registrar el temblor, pero pierden de vista las placas tectónicas que se están acomodando bajo la superficie. En realidad, la inteligencia artificial generativa no sólo agudiza impactos conocidos, sino que cuestiona las categorías básicas que les dan sentido a los derechos humanos.
Basta escudriñar la respuesta de ChatGPT para que salgan a relucir algunas de esas cuestiones. “ChatGPT puede facilitarles el acceso a la información a personas que no podrían obtenerla de otra forma”, me dice como si hablara de otra persona. “Al proveer información precisa y oportuna, ChatGPT puede ayudar a la gente a tomar decisiones informadas y actuar para proteger sus derechos.”
Lo que no menciona mi nuevo asistente virtual es que sus superpoderes sirven tanto para la información como para la desinformación. El riesgo inmediato de la inteligencia artificial desregulada consiste en que los mismos actores y compañías que fabrican o difunden las mentiras que han puesto a tambalear las democracias y los derechos humanos, ahora lo hagan a una escala infinitamente mayor, que acabe de diluir la frontera entre lo verdadero y lo falso. Si la esfera pública termina inundada de textos tan impecables como falaces, o de imágenes y videos tan creíbles como mendaces, se ahoga también la táctica inveterada de los derechos humanos: enfrentar al poder con la verdad. Los modelos como ChatGPT no son loros estocásticos, sino hackers potenciales de los códigos lingüísticos humanos en que hemos escrito los derechos y todas nuestras normas y creencias.
Esto nos lleva al otro punto ciego del debate: la transformación de lo humano en los derechos humanos. El énfasis en la discusión sobre ChatGPT ha estado en el qué, en los derechos afectados por la nueva tecnología. Pero la cuestión más compleja y fascinante está en el quién, en la línea divisoria entre los humanos y los no humanos como sujetos de derechos.
Esta conversación ya está instalada en otros campos y corrientes, desde la filosofía y la teoría de la información hasta la cibernética, las comunicaciones y el transhumanismo. Una de sus analistas más lúcidas, Meghan O’Gieblyn, plantea con claridad la paradoja en la que nos encontramos: “ahora que la inteligencia artificial sigue rebasándonos en una medida tras otra de capacidad cognitiva, calmamos nuestra ansiedad insistiendo en que la consciencia verdadera se caracteriza por las emociones, la percepción, la capacidad de experimentar y sentir: en otras palabras, las cualidades que compartimos con los animales.” Dudo que ChatGPT pueda ver tan lejos como O’Gieblyn, al menos por ahora.
De ahí que el antropocentrismo que inspira a los derechos modernos, con su reconocimiento exclusivo de los humanos, está siendo rebatido desde puntos de vista muy distintos. Mientras algunos comienzan a proponer que se les otorguen algunos derechos a las inteligencias artificiales, otros sugerimos ampliar el círculo de los derechos para incluir las inteligencias naturales de los animales, las plantas, los hongos y los ecosistemas.
A menos que encaremos estas preguntas, es posible que los derechos humanos no tengan mucho que decirle a un mundo confundido y transformado no sólo por la inteligencia artificial, sino por la emergencia climática, los cambios geopolíticos y la incertidumbre de las democracias. Lo que es seguro es que ChatGPT sí tendrá mucho por decir.