Conversatorio con el Dr. Juan Corvalán, Director Fundador del Laboratorio de Innovación e Inteligencia Artificial de la Universidad de Buenos Aires, Argentina, organizado por Hogan Lovells México, México Evalúa y Friedrich Naumann Foundation. Conducido por Omar Guerrero Rodríguez, Socio Director de Hogan Lovelles México, y Laurence Pantin, Coordinadora del Programa de Transparencia en la Justicia de México Evalúa.
OMAR GUERRERO RODRÍGUEZ (OGR): ¿QUÉ ES LA INTELIGENCIA ARTIFICIAL (IA)?
JUAN CORVALÁN (JC): Imaginemos que el derecho es un género, luego tenemos dos grandes géneros en el derecho, derecho público y privado. La constitucionalización del derecho que ha determinado que muchas categorías del derecho privado empiecen a constitucionalizarse, de hecho se empieza a hablar de un derecho más constitucionalizado y no hay una distinción rígida entre derecho público y privado como hace 20 años. La automatización es un gran subgénero, luego viene lo que en las décadas de los 70 y 80 se llamó sistemas expertos, la IA nace en la década de los 40, en los 50 aparece el texto fundacional ¿Pueden pensar las máquinas?,de Alan Turing.
Entre las décadas de los 60 y 80 la IA consistía en enseñar a un sistema ciertas reglas para que las ejecutara de manera automatizada. Se llamaban expertos porque era una cadena secuencial de if, es decir, si pasa, va a pasar. Tenía que haber un ser humano que le enseñara al programador, lo que sigue subsistiendo hoy en día. Es un sistema experto porque el programador pregunta al experto las reglas a seguir y el programador hace que el sistema ejecute esas reglas. Hoy se conoce como RPA (Robotic Process Automatization) que no requiere intervención humana para la secuenciación de esa cadena de reglas. Por ejemplo, cuando pago un servicio Rappi, un software ejecuta una cadena de reglas porque hay un sistema experto detrás. La inteligencia artificial débil es el fenómeno macro, la IA simula conocimiento humano y logra trasladar conocimiento experto a un software.
En 2012 ocurre un quiebre en lo que se llama aprendizaje profundo, deep learning utilizado, por ejemplo, en Spotify, Netflix, o cuando el celular me escucha y me envía carteras. ¿Por qué me envía carteras este producto si yo no di clic en ningún lugar? Es la IA que está perfilando, es lo que vamos a comprar, no importa que no lo sepamos, la IA lo sabe antes que nosotros. Es el perfilado digital basado en IA.
¿Qué es lo importante para el derecho? Y esto es un tip que puede servir para la regulación porque de qué sirve entender el concepto si ni podemos extrapolar las consecuencias jurídicas para entender cuál es el desafío de un jurista frente al concepto. Por ejemplo, le damos a una red neuronal muchos gatos y perros y ya no se necesita un experto que le diga a la IA cuando veas cola, va a ser esto, cuando veas bigote, va a ser esto otro. El deep learning se llama aprendizaje subsimbólico, es decir, al gato se le cuentan los pixeles, no le importa lo que significa el gato para los humanos, aprende de los gatos que están representados en pixeles en una imagen de un gato. El aprendizaje no es de un gato real, es de los pixeles que un animal refleja en el mundo digital. ¿Eso es conocer un gato? Y esto es un punto superimportante que la IA hace y de lo que no hace, la diferencia es que el ser humano no necesita de un millón de gatos para identificar lo que es un gato, mientras que la IA necesita aprender los pixeles del gato para aprender a reconocerlo.
¿Por qué esto es relevante para del derecho? Porque si hay machine learning detrás de un sistema que va a advertir al abogado: guarda que esta demanda te la van a rechazar, cuidado que esta sentencia es igual a esta otra, etc., debemos recordar que es una simulación de comprensión de conocimiento humano porque matematiza el conocimiento, lo mete en una licuadora algorítmica y hace de cuenta que conoce, pero el humano no se da cuenta porque el resultado es indistinguible de lo que hace el propio ser humano. El proceso es muy diferente a un humano porque en principio los humanos no matematizamos el conocimiento.
La IA son dos ramas de una disciplina que intentan emular lo que hace un ser humano. Por una rama son los sistemas expertos: el humano me cuenta, el software lo trata de reproducir. Por otra rama es aprendemos de los datos, dame mil demandas y vamos a ver qué aprendemos de esos datos, después vemos qué dice el experto. La IA es una forma que tienen los sistemas de software para aprender lo que un humano llama sé derecho, sé que frente a esta demanda quizá la rechace un juez.
OGR: ¿POR QUÉ SE CREÓ EL LABORATORIO DE INNOVACIÓN E INTELIGENCIA ARTIFICIAL? ¿CÓMO SE PUEDE INCORPORAR LA IA EN LOS INSTITUCIONES DE SISTEMA DE JUSTICIA?
JC: El laboratorio nace como respuesta al desarrollo de la tecnología. En 2016 investigamos sobre IA, fuimos a la Corte Interamericana de Derechos Humanos, al Instituto Interamericano de Derechos Humanos a dar una charla de desempleo tecnológico. En el Foro de Davos habían realizado un estudio apocalíptico cuyos resultados eran que en cinco años el 50% de las profesiones tenían riesgo de desaparecer, algo que finalmente no ocurrió. En ese momento creamos un algoritmo con dos talentos jóvenes universitarios con espíritu emprendedor, autodidactas, Nicolás e Ignacio, quienes actualmente trabajan para el área legal de Mercado Libre.
Siguiendo el paradigma del asistente virtual como Siri o Alexa, propusieron crear un software para hablar a un celular, en agosto de 2017 se hicieron las primeras pruebas, yo firmaba lo que me hacía prometer, le daba un número y el sistema iba hacia web scrappy, algo muy habitual actualmente, escrapeaba la web de las sentencias de primera y segunda instancia en la justicia contenciosa administrativa, temas de caducidad, derecho a la vivienda y, después de entrenar al software con 5 mil sentencias y 3 mil dictámenes, le dábamos un número, y como yo tenía que dictaminar ante la Tercera instancia de la Corte de la ciudad, revisaba las sentencias a instancias anteriores, comparaba con el dictamen y me decía, por ejemplo: Juan, este es el dictamen que tienes que firmar, y creaba el dictamen.
En 2018 este sistema empezó a usarse masivamente y nos llamaron de varios países, además, yo era profesor en la Universidad de Buenos Aires y me propusieron aplicarlo en esta institución. Mi respuesta fue crear un laboratorio para hacer que sobre esta lógica empezara a hacer proyectos de IA. Lo que hicimos fue institucionalizar, meter IA en un laboratorio y empezamos a hacer softwares desde el derecho, lo que era totalmente disruptivo hacer software en una facultad de derecho. Nos aliamos con personas que no eran abogados, tecnólogos, data science. Nuestro valor agregado era que la facultad podía ser un puente entre investigación aplicada y transferencia tecnológica que le sirve al sector privado, que es lo que hacemos a gran escala con el Salvador, República Dominicana, Ecuador, etc. Hacemos un análisis funcional, diagnosticamos el problema y le decimos a una empresa que le dé seguimiento, es decir, le ahorramos a la empresa la parte de comprensión del problema que es la más desafiante y a su vez el prototipo.
El software se llama prueba de concepto-boceto MVP o piloto. Para una empresa es problemático hacer esta labor, se invierte demasiado dinero y tarda mucho tiempo, de 2 a 3 años, nosotros tratamos de hacerlo entre 3 y 6 meses para que la empresa pueda hacer una licitación. El paradigma que creamos en 2018 fue cambiar la lógica del derecho y fue lo que el decano nos aceptó, la lógica clásica que es: no hacemos papers porque no somos trovadores ni guitarristas, los economistas tienen claro que hay que salir a la cancha, mientras que los abogados no solemos salir mucho a la cancha en términos de transformación real. Nos propusimos hacer lo contrario de lo que hace un observatorio, centro de estudios o asociación, que era ir a campo, hacer pruebas empíricas, sacar diagnósticos, pruebas de concepto, con abogados programadores, tecnólogos e ingenieros con cierto conocimiento del derecho. El leitmotiv del laboratorio siempre fue cambiar la justicia y el derecho desde una faz eminentemente práctica de transformación.
LAURENCE PANTIN (LP): ¿CUÁLES SON LOS PAÍSES, CORTES Y TRIBUNALES QUE ESTÁN MARCANDO EL PASO EN LA INCORPORACIÓN DE LA IA EN LOS SISTEMAS DE JUSTICIA? ¿CUÁLES SON LOS DESARROLLOS MÁS NOVEDOSOS QUE HAY EN LA MATERIA?
JC: En el último año y medio trabajamos con la Corte Constitucional de Colombia que recibe anualmente un millón de casos de acciones de amparo o acciones de tutela, es decir, tienen más casos que todas las Cortes del mundo occidental juntas, casi 400 mil casos en materia de salud porque Colombia tiene algo que resulta irrisorio para muchos: un control de constitucionalidad de oficio, no importa el estado procesal, aunque la pretensión se haya agotado va igual a la Corte. Es decir, la Corte revisa cosas en donde el juicio se agotó en primera instancia, Simplemente porque tienen que hacer una revisión de oficio de todo lo que hacen los jueces de primera instancia es inédito en toda la región. Este trabajo fue el más desafiante que tuvimos porque la Corte Constitucional de Colombia significa mucho más que lo que significa para nosotros nuestra Corte porque en ese país la justicia tiene un peso cultural diferente.
Con la Corte aprendimos mucho, hicimos un algoritmo, nos fuimos al Consejo-Estado. Realizamos pruebas de concepto para la justicia electoral. Después no fuimos a El Salvador, Costa Rica, Uruguay. Brasil es una de las justicias más avanzadas en aplicación de IA, pero es la que menos se conoce por una cuestión idiomática. Los brasileños han sido pioneros porque tenían una madurez digital y porque el ecosistema Legaltech está muy avanzado y supera a las de Argentina y México juntas.
América Latina está antes de la IA generativa, en un estado embrionario y después de la IA generativa están repensando cómo aplican masivamente ChatGPT o Bard y los jueces se están yendo de abajo a arriba, botón up, que es: yo no espero a que el Poder Judicial tome una decisión, ni espero a que alguien decida si voy a usar o no ChatGPT. ¿Qué hacen los jueces de Latinoamérica en general? Lo usan. Hay un montón de sentencias en donde los jueces citan a ChatGPT. No afirmo que esté bien, sino que ChatGPT cambió el paradigma de aplicabilidad y de usuario porque le puso cara a la IA. Antes era Prometea, PretorIA, es etéreo, tengo que llamar a un programador, cuánto sale. Ahora puedes automatizar tareas a costo cero o con una licencia a 20 dólares mensuales.
Esto cambió el paradigma, hay que hacer una estrategia de para qué me va a servir una IA, complementar con ChatGPT o una IA distinta, pero hay que rediseñar la estrategia, por eso muchos Poderes Judiciales están rediseñando la estrategia y evaluando qué hacer con la IA generativa. Por ejemplo, en algunas universidades de Francia la prohibieron, algunos Poderes Judiciales están armando directrices. Nosotros establecimos directrices para que un juez que quiera utilizar IA generativa pueda hacerlo de manera responsable, en conjunto con Thomson Reuters La Ley y Fondazione Adriano Olivetti.[1] En el documento se pueden encontrar recomendaciones que un juez debe seguir para usar ChatGPT de manera responsable.
Por otra parte, hoy no hay un costo concreto, por ejemplo, un MVP con un sistema predictivo que combine automatización, machine learning clásico y deep learning podría salir entre 20 mil y 50 mil dólares, pero si no sabemos bien cuál es el rol de la IA generativa estamos desperdiciando el dinero porque hay que tener una hoja de ruta concreta sobre qué tipo de predicciones y en qué rubros. Hemos intervenido en procesos de familia, de violencia de género, en la Corte de Perú hicimos una prueba de concepto a gran escala en todo el país para juzgados en violencia familiar. Una cosa son los juzgados de familia, otra cosa son juzgados civiles en materia de responsabilidad por accidente de tránsito, juzgados ejecutivos, jueces de falta que ejecutan multas de tránsito, en este caso el juez podría dictar 62 mil resoluciones mensuales porque son juicios en donde no hay intervención del imputado. En esos juicios la IA puede acelerar dramáticamente la confección del borrador de resolución.
Algunas recomendaciones que puedo ofrecer son:
- Tener una estrategia. Actualmente contamos con cientos de IA que hacen de todo, muchas ya están embebidas en copilot o en los plugins de ChatGPT 4, con lo cual si no tenemos una estrategia de automatización IA, no sabemos muy bien si lo que estamos haciendo es sostenible y sustentable.
- Abordar microtareas. En donde ya sabemos que hay mucha evidencia latinoamericana que nos dice si la usas para esto, aumenta la productividad en los juzgados. Identificar tareas y segmentarlas en usos sectoriales y transversales. Mientras diseñamos un plan estratégico podemos ir, de manera responsable, complementando y asistiendo a los funcionarios judiciales, nunca sustituyendo, ya que las IA’s no comprenden contexto, no tienen emociones, ni aprendizaje de inferencia causal, ni relaciones causales, que importan mucho en el derecho penal, civil, administrativo, simulan la inferencia causal, no la comprenden.
- Empatizar. Por ejemplo, en 2018 me encuentro con el fiscal de San Pablo, Brasil, le muestro Prometeo y mi discurso era tecnocéntrico. A partir de ahí cambiamos la estrategia, la resistencia al cambio es más importante que la parte tecnológica y no hay que combatirla, sino que hay que gestionarla. La empatía sirve para gestionar la resistencia al cambio, los proyectos se destrababan cuando les contaba que yo había sido juez, que los entendía, cuando empatizaba con el humano. Ellos pensaban que el tecnólogo no les iba a enseñar a ellos porque tenían varias décadas de experiencia en el área, cómo tratar una víctima, resolver una sentencia, analizar un contrato, etc.Esta es la parte que más le falta a las disciplinas duras. Reuniones que no van llevar a ningún lugar las tomo yo porque sé que son las más importantes de todas porque necesitamos que las personas confíen en las personas detrás de los algoritmos, incluso perdemos dinero sin esta parte.
OGR: ¿LA IA SIGNIFICA LA SUSTITUCIÓN DEL JUZGADOR? ACTUALMENTE YA SE HABLA DE ROBOJUDGES, ROBOARBITRATORS, ETC.
JC: Ya ni siquiera es el discurso, es la mirada, por ejemplo, es no importa lo que me cuentes, yo estoy haciendo una ecuación que la vi en otra persona quien se fue de la justicia sin usar computadoras en 2001. Él hacía una lista de cédulas en una Olivetti, dijo: “Yo me voy a jubilar sin aprender a usar ese aparato”. Con respecto a la noticia que surgió de Technologist sobre el juez robot se debe decir, en primer lugar, que el juez robot es un mito; en segundo lugar, no son robots, son sistemas expertos en juicios automatizados que en muchos casos no tienen machine learning.
Es como si me dijeran que voy a ejecutar un pagaré en donde está en rebeldía y que es un juez robot porque me preparó el ejecutivo. El juez sería un RPA y ni siquiera tendría un token de firma porque el sistema no firmaba de manera automatizada, con lo cual no era la automatización en sentido estricto de la firma, porque para que haya una sustitución, tiene que haber un reemplazo de firma, de lo contrario habrá la confección de un borrador de un proyecto de regulación que un humano debe firmar con un token.
¿Qué hicimos en el Laboratorio para abordar este problema? Porque se da en todos los escenarios frente a cualquier fiscal, defensor, juez, incluso en los estudios jurídicos con herramientas que pensamos que nos pueden reemplazar. Hablemos de traductores y ajedrecistas, los datos demuestran que nunca en la historia tuvieron más trabajo que en la actualidad, cuando las máquinas conquistaron el ajedrez en 1997 y vencieron a los humanos. ¿Quién es la persona que ganó más dinero en los eSports? Es el ajedrecista Manus Carlsen en un juego en donde Stockfish calcula 80 millones de jugadas por segundo, es decir, no hay humano que se le pueda acercar.
Los ajedrecistas aplicaron el efecto de disociación, es decir, no se enfocaron en cómo juegan las máquinas. ¿Los abogados podemos competir con un algoritmo que va a revisar 5 mil contratos en 2 segundos? Imposible. ¿Qué hicieron los ajedrecistas y los traductores? Usan la IA para aumentar dramáticamente sus capacidades y cada vez los mejores ajedrecistas son más jóvenes. El ajedrez humano está variando, ya no juegan lento como el estilo de Kasparov, sino que aplican el speed chees, ajedrez intuitivo porque agrega mayor valor y en donde puedo medir la capacidad de un humano y en donde se puede comparar.
En el caso del derecho ¿el jurado humano es lo mismo que un robot? Si acabamos de decir que los algoritmos matematizan el conocimiento humano, no se emocionan, no contextualizan, y aunque logren contextualizar, no se emocionan, con lo cual, recuerden que los homo sapiens no solo somos racionales, somos emocionales y racionales, pero la mayor cantidad de decisiones, think fast, think slow, son irracionales o emocionales. Para el derecho eso es un problema, para compararnos con la IA no sería un problema porque, por ejemplo, en definitiva, yo quiero que un juez entienda lo que ella dijo al inicio de la charla, entonces yo alcanzo a comprender que la autonomía presupuestaria se está luchando desde 1994, y logro empatizar con la situación. Yo podría pedirle a la IA que me diga cómo defender la autonomía mexicana en términos de justicia, pero no logro empatizar. La IA analiza contratos, puede diagnosticar cláusulas abusivas, etc., pero la falta varias cosas que es en donde debemos agregar valor.
A finales del siglo XX y principios del XXI estábamos frente a un dilema: por un lado, los justiciables pedían mayor rapidez y modernización; nosotros respondíamos, hacemos lo que podemos con el sueldo, restricciones presupuestarias, equipo que tenemos, etc. En vez de temerle a una tecnología que además se inserta en un régimen de empleo público, yo soy especialista en derecho administrativo, lo que quiere decir que no es lo mismo que si trabajara en un McDonald’s o un Starbucks, porque para que yo sea imprescindible tiene que pasar un sumario previo y una serie de causales, además, a los algoritmos no los rige el principio de competencia.
Con lo cual todas las normas me avalan porque solo los humanos pueden decidir en derecho porque la Constitución y las leyes no le asignan la competencia a los algoritmos, sino a los humanos con lo cual tenemos la protección del empleo público y de todas las normas que existen y los tratados. Por lo tanto, deberíamos bajar dramáticamente la resistencia, si hay algo que no está en riesgo es que un juez se quede sin trabajo en Latinoamérica y aumentar la aplicación de tecnología para tratar de saldar la deuda de la justicia lenta que es un problema regional.
Dr. Juan Corvalán, Director Fundador del Laboratorio de Innovación e Inteligencia Artificial de la Universidad de Buenos Aires, Argentina
[1] El documento Directrices de uso de la IA generativa de texto y ChatGPT en la Justicia, se puede consultar en el siguiente link: https://ialab.com.ar/wp-content/uploads/2023/08/Directrices-IA-generativa-y-ChatGPT-justicia.pdf