Los dilemas éticos del uso de la IA en temas de justicia

Recientemente, autoridades judiciales de España han mostrado el interés por el software de Inteligencia Artificial (IA) llamado Prometea, utilizado por el Ministerio Público Fiscal de la Ciudad de Buenos Aires, Argentina, cuyo beneficio principal es el de acortar tiempos en casos de sencilla solución de diversas materias.

Juan G. Corvalán, Fiscal General Adjunto de Buenos Aires y director del Laboratorio de Innovación e Inteligencia Artificial de la Facultad de Derecho de la Universidad de Buenos Aires, creó el software de inteligencia artificial Prometea tras haber detectado que el personal judicial invierte gran parte de su tiempo en corroborar información reiterativa. Con el uso de Prometea la cantidad de errores en la carga de datos, tipeo y redundancia disminuye considerablemente.

En octubre de 2019, autoridades del Ministerio de Justicia español visitaron a las autoridades de Buenos Aires para recabar mayor información sobre Prometea. Sofía Duarte Domínguez, directora de Transformación Digital de la Administración de Justicia de España, declaró a medios argentinos que estaba autorizada para avanzar en la implementación de tecnología que representa el futuro de la justicia.

De acuerdo con Mario Adaro, juez de la Corte Suprema de Justicia de la provincia de Mendoza, usuario frecuente de Prometea, la IA procesa la información de manera automática en grandes volúmenes, lo que ayuda a acortar considerablemente los plazos burocráticos, con lo cual el juez obtiene una mayor capacidad de análisis.

El antecedente principal de IA utilizada en temas de justicia lo encontramos en Compas (Correctional Offender Management Profiling for Alternative Sanctions), un software que se usa en Estados Unidos desde 1998 para analizar las probabilidades de reincidir de un acusado según sus antecedentes penales.

El caso emblemático de Compas fue el de Eric Loomis (2013), en el cual el acusado fue condenado a seis años de prisión y cinco de condicional por huir de la policía y usar un vehículo sin autorización de su dueño, porque Compas estimó un riesgo alto de reincidencia. La defensa de Loomis recurrió, el argumento fue que ellos no podían rebatir los métodos de Compas porque el algoritmo no era público. La Corte Suprema del Estado de Wisconsin desestimó el recurso. Cinco años más tarde se conoció que Compas analiza 137 aspectos de cada imputado, al contrastar el nivel de éxito entre las predicciones de Compas y las de los juristas humanos, se comprobó que no solamente el nivel de acierto de la IA era inferior, también quedaron en evidencia graves errores.

Al respecto, algunos especialistas en el tema consideran que los promedios estadísticos no describen perfiles individuales por lo que se corre el riesgo de incluir a individuos en estándares incorrectos.

Juan G. Corvalán explica que el proceso que utiliza Prometea es auditable y trazable. La diferencia fundamental entre su software y Compas es que éste último utiliza dos redes neuronales cuyo funcionamiento resulta una incógnita porque fue desarrollado por una empresa privada que es dueña de los derechos de propiedad intelectual del algoritmo.

“Las predicciones de Prometea se basan en el análisis del historial de lo que los jueces han decidido, son ellos quienes entrenan al sistema. Por ejemplo, en la Corte Constitucional de Colombia [país en el que también se aplica el programa] son los propios magistrados quienes llevan adelante el permanente ajuste de las predicciones de Prometea, con nuestra asistencia técnica, por supuesto”, explica Corbalán.

 

Con información de El País.

COMPARTIR

Artículos

RELACIONADOS