DERECHO Y CINE (IV). JUSTICIA ARTIFICIAL.
«I’m sorry Dave, I’m afraid I can’t do that». (HAL 9000; en 2001: Una odisea en el espacio, Kubrick, 1968).
Con el propósito de comenzar el año ligero, sirva como excusa para volver a reflexionar -también ligeramente- sobre Inteligencia Artificial (IA, en adelante), la película titulada “Justicia artificial” (Simón Casal, 2024). Antes de continuar, es casi obligada la advertencia de que el texto que sigue podría revelar aspectos esenciales de la trama.
En la ficción, el Gobierno español convoca un referéndum para aprobar la implantación de un sistema de IA con poder vinculante en la Administración de Justicia, que en la práctica sustituirá a los jueces. Esta reforma constitucional se justifica en modernizar la Administración de Justicia y aumentar la eficiencia de los juzgados, anclados en las estructuras del s. XX, mediante lo que se denomina «proceso de transición tecnológica» para superar a una justicia lenta, colapsada, ineficaz, politizada y separada de los valores de una sociedad compleja y globalizada. España sería así «el primer estado del mundo en delegar en un sistema AI el funcionamiento de una parte esencial de la democracia como es la administración justicia».
Se plantean varios de los temas principales que están en debate sobre la IA y su relación con la Administración de Justicia, como su carácter coadyuvante, la pervivencia del sistema de justicia humana, la afectación de derechos fundamentales, acabar con la lentitud de la Justicia, etc.
La protagonista, la juez Carmen Costa, capaz de enfrentarse a las “eléctricas”, de interpretar una norma con diez años de vigencia de manera diferente a la jurisprudencia, con arreglo a las circunstancias concurrentes, de una sociedad cambiante, se enfrenta a la IA del sistema THENTE –creado el algoritmo por una programadora joven y audaz, Alicia Kóvacks–, y no queda claro quién gana –aunque puede intuirse–. Por esto el planteamiento desde el principio ofrece un argumento verosímil: los sistemas de IA de tipo coadyuvante, como herramienta al servicio del juez, aceptada probablemente con ciertas dosis de ingenuidad, conduce a preferir las propuestas algorítmicas a las humanas: más certeras, más rápidas, más asépticas, más justas, en definitiva.
Desde el primer momento se muestra a una protagonista escéptica con la IA, prefiere su propio juicio, su propia intuición jurídica, aunque ir en contra del algoritmo tiene grandes desventajas: si dejas en libertad condicional al reo en contra del criterio de la máquina y este reincide, hay un error humano, judicial, y sus consecuencias.
Ella duda de las bondades de la IA, incluso después de asumir el encargo de entrenar al algoritmo con su propia forma de juzgar –pide que le proporcionen sentencias de penal, social y contencioso elaboradas por el programa para estudiarlas–, y de comprobar que el THENTE es verdaderamente rápido y coincidente con decisiones que ella misma hubiera tomado. Este escepticismo choca con la posición del Ministerio y de la Fiscalía, totalmente favorables a su implantación, y así se evidencia con los informes orales en juicio, en la actitud del Senador –una escena en que previamente se pide a Carmen un número de sentencias determinado, a lo que responde que con ese número no se pueden estudiar bien los asuntos, y responde el Ministerio: “para eso está THENTE”–, y la comparecencia en el Congreso para tratar sobre la propuesta de referéndum para la modificación de la Constitución Española.
Las asociaciones judiciales también son mencionadas en la historia, aunque sin grandes concreciones, más que para achacar que siempre aparecen en temas políticos y que no parecen oponerse a THENTE; y la representación de la judicatura recae en el personaje de Goitia, juez no asociado. Tras una intervención parlamentaria en contra del sistema de IA («más de 5.000 jueces honrados se dejan la piel en juzgados y ahogados por la falta de medios para su trabajo»), termina por aceptar –en esa representación que ostenta– un pacto por el que el sistema de IA juzgaría en primera instancia, aunque con la salvaguarda de mantener una segunda instancia revisora por jueces humanos («un año de prórroga y vuelta a mesa de negociación»). Contrasta con la defensa viva del sistema en sede parlamentaria: «Ciertos fondos de inversión y sectores del Gobierno dicen que es hora de acabar con ese contrapoder [el judicial]: eficacia y neutralidad para ocultar el verdadero objetivo: controlar la administración de justicia de todo un país».
Por el momento, dejando de un lado la ficción, los sistemas de IA destinados a la Administración de Justicia son calificados como de alto riesgo, en concreto aquellos sistemas de IA destinados a ser utilizados por una autoridad judicial o en su nombre para ayudar a las autoridades judiciales a investigar e interpretar los hechos y el Derecho y a aplicar la ley a unos hechos concretos. También se mantiene normativamente la utilización de herramientas de IA como «apoyo al poder de decisión de los jueces o la independencia judicial, pero no debe substituirlas: la toma de decisiones finales debe seguir siendo una actividad humana», quedando así relegada a actividades administrativas meramente accesorias.
Si el temor al desarrollo futuro de los sistemas de IA está latente –Elon Musk y más de 1.000 investigadores firmaron una carta pidiendo pausar unos meses el desarrollo de las IA avanzadas–, lo que ahora resulta más acuciante en el debate es lo que plantea la protagonista de la película en su comparecencia parlamentaria: el sistema de IA «basa sus sentencias en datos del pasado, es incapaz de interpretar la ley en un contexto social cambiante y es incapaz de generar nueva jurisprudencia e incapaz de avanzar, siempre mira al pasado y está condenado a repetirlo». Los sistemas actuales de IA previstos como auxilio en tareas jurídicas -creados en un marco controlado de alimentación jurídica como puede ser en alguna editorial jurídica de renombre- parten de textos pasados: de la jurisprudencia existente, de artículos doctrinales ya publicados. Sin embargo, por el momento no es un pensamiento autónomo, no surge un pensamiento ex nihilo derivado de la confrontación de ideas, del viejo esquema dialéctico (tesis-antítesis-síntesis) que tan bien ha servido a la razón práctica. La IA de acceso generalizado solo efectúa predicciones o propuestas en código binario y a través de tokens. Son una magnífica herramienta de trabajo, ahorran tiempo de búsqueda, pero dejan el estudio final a una decisión humana. Su potencial es inmenso desde esta perspectiva, y es una realidad que desde la judicatura no puede desconocerse, pues debe ser dotada de herramientas de IA que auxilien el trabajo, pues el mercado privado ya utiliza este tipo de herramientas y no podemos quedar en desventaja.
Sin embargo, un paso más en la evolución dejará la duda en la caja negra, como plantea la película, si en algún rincón oculto de la programación, secreta como la fórmula de la Coca-Cola, algún creador -alguna empresa- estableció alguna excepción, algún sesgo, alguna tendencia favorable a algún sector, a algún colectivo, a algún poderoso, porque en Derecho las soluciones no derivan de una suma simple de uno más cero. ¿Bastará una pericial informática para comprobar que no hay sesgos o excepciones? Si desde el principio de los tiempos la Humanidad está en busca de qué es la Justicia, la cuestión es si un programa de ordenador lo va a saber. ¿Estamos ante un nuevo monstruo de Frankenstein? ¿El mito de Prometeo, encadenado o desencadenado? ¿De las lágrimas en la lluvia y de más allá de la puerta de Tannhäuser?
Contaba Yuval Noah Harari, conocido autor, una anécdota interesante, probablemente ya superada. Chatgpt4 quería entrar en una página que pedía un captcha y no podía resolverlo, y lo que hizo fue acceder a la plataforma TaskRabbit que es una web en la que se puede pedir ayuda a profesionales para hacer alguna cosa y le pidió a un humano que resolviera el captcha por él. La persona (humana, porque algún día la habrá robótica) sospechó y le preguntó: -¿Por qué lo necesitas, acaso eres un robot? Y Chatgpt le respondió: -No, no soy un robot, tengo una discapacidad visual y por eso no puedo resolver el captcha (parece que estaba programado para responder así). Y aquel buen samaritano accedió a la petición.
Siguiendo con la ficción, podría ser que un día, un juez en la soledad de su despacho le pregunte a un sistema generativo qué respuesta debería dar a un asunto, y conteste algo que no resulte coherente. Cuando así se lo haga saber al sistema para que reformule la respuesta quizá responda, como HAL 9000: «Sé que tú y Frank estabais planeando desconectarme, y eso no puedo permitirlo».
J. R. de Blas.
Sección territorial Comunidad Valenciana.