Mesa presentada en Mex AI CAN, foro de análisis, debate y soluciones para la regulación y uso de la Inteligencia Artificial (IA) en el sector legal, organizado por Legal Hackers México. Expositores: Javier Careaga, Director Jurídico de Meta; Daniel Medina, Gerente de Transformación en Círculo de Crédito; Luis Ricardo Sánchez, Director General de Normatividad y Consulta adscrito a la Secretaría de Protección de Datos Personales del INAI. Moderadora: Janet Huerta, Directora en Abogado Digital.
Introducción
Janet Huerta
La mayor parte de la capacitación en derecho y tecnología está enfocada en el derecho digital que abarca las implicaciones legales que tiene el desarrollo de la tecnología. En el caso de la inteligencia artificial, serían cosas como cuáles son las implicaciones jurídicas de las decisiones tomadas por un sistema de IA, de quién es la responsabilidad, quién tiene los derechos de la creación o cómo proteger los datos personales.
Sin embargo, es también de suma relevancia que analicemos las aplicaciones legales de estas tecnologías. Es decir ¿cómo podemos usarlas en nuestro trabajo legal? Hoy en día es igual de importante nuestro conocimiento en el expertise legal que la eficiencia con la que gestionamos nuestro trabajo, cómo manejamos nuestros casos, creamos documentos etc. Podemos utilizar herramientas de inteligencia artificial para ahorrarnos tiempo generando contratos o revisando documentos, entre muchos otros usos.
La IA no llegó para sustituirnos, sino para que aprendamos a colaborar con ella para mejorar nuestras tareas cotidianas. Por ejemplo, en algunos medios se habló de un juez robot, que alarmó a la abogacía. Para que haya un juez robot, la tecnología, además de dictar una sentencia, tendría que firmarla y eso no existe aún. No podemos hablar siquiera de una sustitución de la toma de decisiones. Claro que existe la tecnología de IA que auxilia en la generación de los borradores de sentencias, demandas o propuestas de contratos para que los expertos únicamente los revisen y los validen, siempre para eficientar su elaboración y la toma de decisiones.
¿Cómo aplicas la IA para mejorar tus tareas en el día a día?
Daniel Medina
En los últimos años hemos usado la IA sobre todo los ingenieros. La IA son matemáticas, una serie de comandos, un árbol de decisiones y combinaciones. Lo que ocurrió con OpenAI es que hasta que empezamos a trabajar con Chat GPT, a interactuar con una interfaz muy sencilla y con un lenguaje natural, entendimos que teníamos esa tecnología al alcance y podíamos usarla todo el tiempo y para cualquiera de nuestras tareas. Como Gerente de Transformación en Círculo de Crédito me toca analizar todos los procesos que la compañía ha hecho a lo largo de los años, en este caso me ayuda mucho generar un prompt como si yo fuera el usuario, es decir, un usuario que tiene ciertas funcionalidades y necesita resolverlas.
Los casos de uso que podemos dar a Chat GPT o Bard son infinitos, por ejemplo, un día en la casa de un amigo me contaba que no sabía cómo dormir a sus hijos que se quedaban despiertos hasta tarde, le preguntó a la niña sobre las características de un cuento para dormir, la niña contestó que le gustaría un cuento de una princesa con un dinosaurio azul y un amigo que se llamara Pedro. Pedimos a Chat GPT que creara un cuento con esas características, de esa manera ya tenía un cuento para dormir a su hija todos los días.
En el área legal de la fintech lo usan para crear contratos con un alto grado de robustez. En estos casos debemos considerar que al hacer eso también le estamos entregando nuestra información y alimentando al monstruo de la IA.
Javier Careaga
A veces a los abogados se nos olvida cómo desmembrar lo que hacemos todos los días. ¿Qué acciones son las que realizamos en nuestras tareas? Primero leemos, luego identificamos información relevante, resúmenes o análisis críticos. Después redactamos la respuesta dependiendo del tipo de documento. Todo esto lo puede hacer Chat GPT. La IA se puede utilizar para prácticamente todo porque sus resultados son apenas una sugerencia. Es importante recordar que lo que arroja no es el texto final. Siempre debe de ser revisando. De hecho, si preguntamos a Chat GPT, por ejemplo, cuál va a ser el outcome de un accidente. ¿Quién tiene la razón?, generará un disclaimer donde diga: “Perdón, no soy abogado, pero te presento lo que encontré”. Incluso puede generar predicciones legales.
Lo interesante es que la IA va más allá de la automatización e incluye otras funcionalidades, por ejemplo, leer un documento, hacer resúmenes o generar palabras clave de un documento extenso. Puede también ayudar en contratos e incluso a contestar mails de forma más amigable. Considero que de esta manera no vamos a redactar más el legal advice desde cero, todo esto ahora va a ser un trabajo de revisión, de análisis, de perfeccionamiento y las horas que se invertían en eso ahora se deben enfocar en otras actividades. El valor agregado se va a modificar y esto cambiará aspectos como sistemas de cobranza, etc.
Una de las cosas que más me divertía hacer era un sistema en el que llegaba una notificación legal al edificio de la oficina donde trabajaba, lo recibían los encargados de seguridad, me lo entregaban, yo lo leía, traducía si era necesario, identificaba palabras clave, lo enviaba al equipo correcto dentro de los distintos equipos legales internos y externos, y sugería una respuesta. Ahora todas estas actividades se pueden realizar en segundos, tiene su nivel de complejidad, pero se pueden hacer cosas interesantes y divertidas.
Luis Ricardo Sánchez
Mi trabajo dentro el Instituto Nacional de Transparencia, Acceso a la Información y Protección de Datos Personales (INAI) se enfoca en la parte consultiva y normativa de la protección de datos. El INAI está para apoyar con las dudas en servicios gratuitos, desde temas como videovigilancia en condominios hasta el Fan ID connector.
En primer lugar, es importante mencionar que dentro de la Alianza Nacional de Inteligencia artificial (ANIA), el INAI tiene participación en los grupos internacionales. Actualmente, formo parte del grupo de trabajo de Gobernanza de inteligencia artificial de la Organización para la Cooperación y el Desarrollo Económicos (OCDE). Debemos de ser cuidadosos y no tan escépticos del alcance de la tecnología porque el primer punto es que debemos superar la visión restrictiva de datos. El uso de datos no significa no usarlos, sino usarlos responsablemente, y ahí está la virtud, lograr la optimización disminuyendo los riesgos para las personas.
En segundo lugar, la IA es un hito en la evolución de la sociedad, no podemos perder de vista el alcance a gran escala de la revolución tecnológica actual porque la IA no es lo central, sino la combinación del procesamiento hasta el transhumanismo, incluso ya abordamos el tema de los neuroderechos.
Bajo estos dos presupuestos, el escenario normal de protección de datos es como con las aplicaciones más sencillas de IA donde podemos utilizar cualquier aplicación sin tener que preocuparnos por el tema regulatorio o cómo funciona, para eso estamos las autoridades. En lo personal tengo actividades diversas, para todo utilizo Chat GPT, por ejemplo, para generar resúmenes, cláusulas, comparaciones, que incluso sustituyen a 10 personas en 5 minutos.
Uno de los puntos clave para usar Chat GPT es la elaboración de prompts ya que a veces ni siquiera sabemos dar instrucciones. Muchos de mis colegas que no tienen la madurez digital suficiente les cuesta mucho trabajo utilizarlo porque dicen que les genera resultados muy locos, pero la locura no es de la herramienta, sino de la persona que la utiliza por no saber darle las directrices específicas de la información que necesitamos.
En el marco del INAI integramos IA en el proceso de consultas, en el micrositio en el que los usuarios entran a hacer sus consultas. Alimentamos el sistema con las consultas que ya tenemos, las resoluciones del Pleno y todos los instrumentos internacionales. De esta forma cuando alguien requiere una consulta sobre un tema, puden obtener su respuesta a través de utilizar el prompt correcto. De esta forma los usuarios pueden conseguir soluciones rápidas ante problemas sencillos.
¿Qué ejemplos de usos de la IA en áreas jurídicas nos puedes compartir?
Daniel Medina
Uno de los proyectos que desarrollamos dentro de Círculo Financiero es para la prevención del fraude. Para los solicitantes de crédito tenemos una herramienta que, con distintos modelos en IA, machine learning y otros algoritmos, previene fraudes desde que se origina el crédito, con ciertos patrones, valores al momento de que alguien genera un crédito.
Además, tenemos otras soluciones, por ejemplo, el tema de OCR que no es algo nuevo, pero donde un algoritmo de IA hace una lectura de identificación y también valida contra las autoridades por lo que podemos cotejar la información y diseñar mejores productos, que ayuden al usuario para tener mayor certeza y seguridad
Es importante diferenciar que la IA es consecuencia de la automatización, en ocasiones los usuarios en las áreas de negocio piden instalar IA en una aplicación, sin embargo, el asunto es más complejo, en primer lugar, debemos contar con una base de datos que pueda tener variables y modelos para consumir esos servicios.
La automatización y los casos de uso pueden ser una puerta enorme a lo que queramos implementar, pero debemos ser conscientes de la parte de la privacidad de datos, por ejemplo, ¿quién va a regular la IA? Porque cada vez se crea más contenido, en este caso debemos crear comunidad, seguir ciertos lineamientos para que el desarrollo de la IA venga acompañada de cierta conciencia y responsabilidad.
¿Cuáles son las limitantes del uso de la IA en el Sector Legal?
Javier Careaga
El gran problema de la IA es que no entendemos cómo está hecha; el Deep Learning es una caja negra, nadie sabe quién la creo ni qué está pasando ahí, aunque conocemos más o menos los parámetros. La transferencia de la IA siempre va a ser limitada por su propia esencia. Debemos entender que si lo vamos a hacer supersimplificado, lo más importante es el input y el algoritmo, y este último son las reglas del juego. Pero el input es lo más importante, pones información de mala calidad, el output va a ser de mala calidad; pones información confidencial, el output va a ser confidencial; pones cosas falsas, el output es falso.
Estos modelos se entrenan en el internet y todos sabemos lo que hay en el internet por lo que no nos podemos sorprender. Cuando la IA emite outputs que no tienen nada que ver, le llamamos de la forma en la que los humanos le llamamos cuando la realidad no tiene nada que ver con lo que uno está diciendo, es decir, alucinaciones. Debemos ser conscientes de que puede haber alucinaciones en la IA. Consideremos que el input puede ser privado y confidencial.
Uno de los dilemas de muchas empresas es cuál contratar, el software libre o el de pago, porque si usan un genérico obviamente está entrenado con información de quién sabe dónde, probablemente de internet, y aunque decidan entrenarlo con una base de datos privada, pocas empresas tienen el volumen necesario. La mayor parte de despachos de abogados no tiene la cantidad suficiente de datos, lo que genera una limitación. Se espera que no se necesiten tantos datos para llegar a conclusiones, hay mucha expectativa de cómo va a ser la IA 3.0 y 4.0.
Las limitaciones más importantes para el gremio de los abogados son dos: el prompting debe que ser extremadamente claro, no es dar instrucciones, es delegar, todos los que han tenido un jefe malo recordarán que un día les hizo una mala delegación y luego los regañó. La IA no hizo nada mal, checa mejor qué le diste, con qué datos la alimentaste.
En segundo lugar, absolutamente todo requiere revisión final. En Estados Unidos hubo una reacción agresiva a un error en un juicio de unos abogados que usaron Chat GPT y no tuvieron cuidado en la revisión y varios circuitos judiciales, a causa de eso ahora piden a los abogados litigantes declarar bajo juramento que no utilizaron este tipo de tecnologías. La realidad es que es una mala praxis, son abogados que no están cuidando el producto.
No podemos prohibir la tecnología, siempre que lo hemos hecho ha salido mal históricamente, más bien hay que acompañar a la tecnología con pláticas sobre regulación, etc. Mi recomendación es utilizar Chat GPT, por ejemplo, en las tareas de la escuela. Los profesores deberían fomentar el uso de la IA y revisar en clase los errores que arrojó porque ahí está el valor agregado de los abogados, la razón por la cual nos contratan es el criterio y la experiencia que tenemos y que son necesarios para resolver el asunto de una empresa. Las tareas repetitivas no tienen nada que ver, las podemos resolver con tecnología.
¿Cuál es el impacto de la IA en la confidencialidad de la información?
Luis Ricardo Sánchez
Existen varios mitos en relación con la regulación de la IA. Uno de ellos es que no existe regulación, que inhibe el desarrollo tecnológico o que la IA es demasiado compleja y no puede regularse. Sin embargo, estamos en un proceso de diagnóstico de entender cuál es el alcance. A la par han empezado a surgir ciertas directrices a nivel internacional. La labor del INAI es levantar la voz sobre las recientes declaraciones de la Dra. Ana Brian Nougrères, Relator Especial sobre el Derecho a la Privacidad de Naciones Unidas, sobre que la privacidad y la protección de datos personales es la llave para la IA. Es decir, se debe destacar el carácter transversal que tiene la protección de datos personales en el entorno digital, ya que en este contexto somos datos.
Sí existe la regulación y gran parte de esos elementos están en la protección de datos desde el contexto de gobernanza. Recordemos que la gobernanza no sólo abarca la confidencialidad, sino también disponibilidad, integridad, y en entornos digitales no repudio, autenticidad, confiabilidad, y todo lo señalado previamente bajo estándares como la serie ISO 27000 que establece la base de gobernanza de datos que se construye en el entorno digital y la confianza. Esto ya es una necesidad, lo que tienen los principios y deberes de la ley de datos no son más que reglas basadas en la triada de la seguridad de la información.
Es complejo implementar un esquema de protección de datos, sin embargo, un primer punto puede ser proponer un desarrollo de evaluaciones de impacto a la privacidad. Esta es una buena práctica que eventualmente puede detonar su sistema de gestión institucional, sobre todo ya sea que se decida realizarlo a nivel interno o compartirla con el INAI para emitir un dictamen sobre ella. En algún momento cierta persona dijo que la privacidad había muerto. Yo creo que ha muerto en la medida en que cada vez menos personas saben que tienen un derecho a la privacidad. Recientemente con la actualización de políticas de WhatsApp, la privacidad está más viva que nunca y todos estamos tomando conciencia de ello.