Las perturbaciones sociales que plantea la inteligencia artificial generativa (IA) —un término amplio para la producción automatizada de contenidos, como texto, imágenes y audio— ya se han catalogado con amplitud. Estas perturbaciones van desde los efectos potenciales sobre los trabajadores hasta la concentración del poder corporativo, pasando por la posibilidad de una mayor vigilancia.
Es demasiado pronto para saber cómo se desarrollarán estas predicciones sobre la IA generativa, pero hay una cuestión adicional que los defensores de los derechos humanos deberían vigilar: cómo podrían responder los gobiernos a la IA generativa de forma que se restrinja la libertad de expresión. En concreto, los defensores de los derechos humanos deberían animar a los gobiernos a que establezcan normativas sobre la IA que respeten los regímenes jurídicos existentes que protegen la libertad de expresión.
Cualquier intento de regular el contenido producido por la IA generativa, incluidos los grandes modelos lingüísticos, corre el riesgo de operar ampliamente para restringir la expresión protegida. El hecho de que los seres humanos puedan haber utilizado una herramienta tecnológica concreta —ya sea un gran modelo lingüístico, un generador de imágenes o un motor de búsqueda— para crear o dar forma a un mensaje no significa que dicho mensaje constituya una expresión no protegida. Por el contrario, la tecnología es a menudo un motor clave que permite a las personas registrar y difundir información de formas novedosas, como a través de la fotografía, los videos digitales o el rastreo de datos públicos en Internet para recopilar la información necesaria para exigir la rendición de cuentas a los actores poderosos.
Las cortes de Estados Unidos han reconocido que el mero hecho de que la tecnología permita la expresión no significa que las personas pierdan sus derechos a participar en esa expresión. Por ejemplo, el derecho a grabar a la policía en público carecería en gran medida de sentido si no protegiera la capacidad de utilizar teléfonos móviles, como han hecho tantas personas y manifestantes en todo el mundo para difundir pruebas de mala conducta policial. El mismo concepto se aplica a la IA generativa, que las personas pueden utilizar para apoyar o aumentar (o hacer el trabajo de) la expresión de sus mensajes.
En el contexto de los derechos de autor, el gobierno de EE. UU. ya está estudiando la posibilidad de distinguir entre obras producidas únicamente por humanos y obras producidas por herramientas de la IA. Si esta distinción se adopta fuera del ámbito de la propiedad intelectual, podría llevar a los gobiernos a regular los contenidos generados por la IA de forma diferente a los generados por humanos. Y cualquier ley de este tipo tendría que ser examinada minuciosamente por su efecto sobre el derecho a la libertad de expresión de los usuarios individuales.
Una de las presiones específicas a las que se enfrentarán los gobiernos es la de abordar la preocupación generalizada de que la IA generativa acelere la producción de contenidos falsos o engañosos. Las herramientas de la IA generativa podrían abaratar y facilitar la producción de información falsa en un formato sofisticado, lo cual permitiría la rápida difusión de dicha información de una manera que los verificadores de hechos humanos tendrán dificultades para seguir.
Esta preocupación no es nueva, ya que los debates en torno a la regulación de los llamados vídeos "deepfake" llevan años produciéndose, y ya ha habido propuestas a nivel estatal y federal en Estados Unidos para regular este tipo de contenidos. Pero los defensores de la Primera Enmienda han señalado que muchas de estas propuestas son demasiado amplias y prohibirían una serie de expresiones protegidas por la Constitución, como las imágenes generadas por CGI en películas o los videos de parodia obvia de funcionarios públicos.
En Estados Unidos, la falsedad —incluida la parodia— es un discurso protegido por la Constitución, salvo en determinadas circunstancias estrictamente definidas, como el fraude o la difamación. Por eso el régimen jurídico del país permite leyes que regulan estrictamente esas categorías de expresión. El derecho internacional protege igualmente la expresión de una opinión errónea o una interpretación incorrecta de hechos pasados. Los defensores de los derechos humanos deben desconfiar de cualquier intento de generar nuevos regímenes jurídicos, especialmente penales, que limiten la expresión permisible en nombre de la lucha contra las amenazas que plantea la IA generativa.
Incluso si los gobiernos no imponen nuevas restricciones a los contenidos permitidos, seguirá habiendo dudas sobre cómo imponer responsabilidades por los contenidos generados por IA que sean ilícitos con arreglo a los regímenes jurídicos actuales. En un intento de abordar estas cuestiones, los gobiernos pueden tratar de imponer la rendición de cuentas sobre el uso de herramientas de IA generativa al exigir la identificación de la autoría en línea o alguna procedencia rastreable de discursos, vídeos y otros medios producidos por la IA.
Pero hacerlo podría vulnerar el derecho a hablar de forma anónima, protegido por la Primera Enmienda y la legislación internacional sobre derechos humanos. Ya hemos visto a gobiernos intentar restringir el uso de herramientas de mensajería cifrada en nombre de la lucha contra la delincuencia, a pesar de que estas herramientas permiten a las personas comunicarse de forma privada y anónima, garantizando los derechos humanos en la era digital.
Los defensores deben resistirse a los intentos de los gobiernos de erosionar la capacidad de utilizar herramientas de anonimato en nombre de la lucha contra la proliferación de contenidos ilícitos generados por IA. El derecho a hablar de forma anónima sigue siendo fundamental y vale la pena protegerlo, especialmente en el caso de las comunidades marginadas y de quienes viven en entornos represivos.
Entonces, ¿dónde quedan los gobiernos que quieren abordar los efectos potencialmente perturbadores de la IA generativa? La regulación de la IA es necesaria y urgente, y ninguna autovigilancia por parte de la industria sustituye a los mandatos exigibles e impuestos democráticamente a quienes desarrollan y despliegan herramientas de la IA. La regulación de la IA puede y debe seguir centrándose en el uso de la IA en contextos particulares, incluido su uso para tomar decisiones importantes que afecten a los derechos de las personas a la libertad, el debido proceso y la no discriminación en el empleo, la vivienda y la educación.
Los gobiernos también pueden trabajar para garantizar que las herramientas de la IA no se concentren en manos de unos pocos actores, y que el desarrollo y despliegue de dichas herramientas satisfagan ciertas normas, incluidas las regulaciones sobre privacidad de datos y protección de los trabajadores. Pero los encargados de regular la IA también deben garantizar que las amplias restricciones sobre los contenidos generados por la IA no acaben restringiendo las protecciones fundamentales de la libertad de expresión.