A pesar de los impresionantes avances en la simulación de respuestas humanas a preguntas y tareas, los desarrolladores de IA han progresado mucho menos en la creación de salvaguardias viables contra el uso indebido del sistema. Esta nueva generación de sistemas de IA es más opaca y menos transparente que sus predecesoras.
Nos encontramos ante una situación indeseable en la que los sistemas de IA con alta capacidad han proliferado en todo el mundo con poca claridad sobre sus riesgos, la eficacia de las salvaguardias del sistema o las leyes que podrían regir estos asuntos. En este contexto, los derechos humanos corren el riesgo de quedar relegados a un segundo plano, impulsados por las fuerzas del mercado y los avances tecnológicos.
Sin embargo, esto dista mucho de ser una simple historia de codicia industrial e inacción gubernamental. Es fácil hacer un balance de los peligros que plantea la IA generativa y exigir a los reguladores que dejen de cruzarse de brazos. Es mucho más difícil proponer un marco jurídico que pueda ofrecer un camino práctico. Aunque señalar las amenazas a los derechos humanos es una parte importante de este proceso, la complejidad de los sistemas de IA generativa exige una profunda reflexión sobre la mejor manera de incorporar a la legislación la protección de esos derechos.
Como ejemplo de esta encrucijada normativa, consideremos la propuesta de Ley de Inteligencia Artificial de la Unión Europea, considerada el marco regulador de la IA más completo del mundo. Aunque la Ley de IA pretendía explícitamente estar preparada para el futuro, su propio diseño se ha visto cuestionado por el auge de ChatGPT y la IA generativa, lo que ha obligado a los legisladores de la UE a volver frenéticamente a la mesa de dibujo antes incluso de que se haya aprobado la legislación.
El principal reto es que los sistemas de IA generativa como ChatGPT son increíblemente flexibles, capaces de realizar una gama esencialmente ilimitada de funciones. Esta maleabilidad plantea problemas espinosos para marcos como la Ley de Inteligencia Artificial, que asigna responsabilidades según las funciones para las que se ha diseñado un sistema de IA concreto. Por ejemplo, la legislación exige que los sistemas de IA utilizados en áreas sensibles como la educación, el control de fronteras y la aplicación de la ley sean de alto riesgo y estén sujetos a directrices más estrictas. En cambio, los sistemas de IA diseñados para usos no sensibles sólo deben cumplir requisitos menores, como la transparencia básica.
Ese marco basado en el riesgo funciona en el contexto de algoritmos especializados y otros sistemas de IA diseñados específicamente para contextos concretos, como el sistema eBrain utilizado para tramitar las solicitudes de los inmigrantes o el sistema COMPAS de evaluación de riesgos, utilizado ampliamente en el sistema de la justicia penal de Estados Unidos. Sin embargo, no está nada claro cómo clasificar un sistema de uso general como ChatGPT, que podría utilizarse en contextos de migración o justicia, así como en muchos otros.
Un segundo reto importante es la cuestión del "desarrollador intermedio", donde sistemas como ChatGPT sirven cada vez más como plataforma de base para que otros desarrolladores de IA la personalicen aún más. ¿Quién debe ser responsable ante la ley si la IA personalizada se utiliza de forma que vulnere los derechos humanos?
El desarrollador original puede haber creado y perfeccionado el sistema de IA, pero no estará al tanto de cómo utiliza, adapta o integra el sistema el desarrollador posterior. Por su parte, el desarrollador posterior no participó en la creación o formación del sistema de IA, por lo que puede sobrestimar su capacidad o subestimar sus limitaciones. Esta complicada cadena de valor enturbia la rendición de cuentas y dificulta la asignación de responsabilidades.
Cualquier marco jurídico que pretenda controlar los sistemas generativos de IA, incluidos los marcos basados en la protección de los derechos humanos, deberá tener en cuenta estos matices tecnológicos. A la luz de este nuevo contexto, puede que tengamos que replantearnos los estribillos habituales para abordar las cuestiones de derechos humanos de la IA. Por ejemplo, la Carta de Derechos de la IA propuesta por la Administración Biden exigiría que "los sistemas automatizados proporcionen explicaciones que sean técnicamente válidas, significativas y útiles".
Aunque sea potencialmente valiosa como declaración de lo que nos gustaría en un mundo ideal, no está claro si es tecnológicamente posible que la IA generativa cumpla un requisito como este. ChatGPT es incapaz de detallar exactamente por qué ha respondido de una manera determinada a una pregunta o cómo ha creado un contenido. Aunque se puede "preguntar" al sistema por qué dio una respuesta concreta, la respuesta será lo que ChatGPT predice que respondería un humano y no una auténtica reflexión sobre sus propios procesos. Esta incapacidad es una función de su complicado procesamiento algorítmico más que una decisión de diseño particular de OpenAI.
A pesar de las dificultades inherentes a la regulación de los sistemas de IA generativa, la alternativa es peor. Un amplio abanico de derechos humanos está en juego si la IA generativa sigue desarrollándose y liberándose en un vacío normativo. Un enfoque de laissez-faire para regular la IA avanzada pone en peligro a los usuarios individuales y somete cuestiones importantes como la desinformación, el uso indebido y la privacidad de los datos a las salvaguardias mínimas que exija el mercado.
Sin embargo, los esfuerzos por imponer un entramado de derechos humanos a la creciente industria de la IA no funcionarán si el marco jurídico está desvinculado del contexto tecnológico. Los legisladores, los desarrolladores de IA y los grupos de derechos humanos tendrán que trabajar por una ley funcional diseñada teniendo en cuenta las capacidades de la IA generativa.