portalforojuridico-maquina

La Inteligencia Artificial con Deberes Legales: ¿Un Nuevo Actor en el Escenario Jurídico?

La Máquina del Tiempo

La historia del derecho nos ha mostrado, a lo largo de los siglos, una fascinante tensión entre la aparición de nuevos sujetos, la creación de nuevas instituciones y la necesidad de regular lo desconocido.

Desde la irrupción de las corporaciones como entes con personalidad jurídica propia en el siglo XIX, hasta la incorporación de los derechos digitales en el siglo XXI, el sistema jurídico se ha visto en la obligación de expandir su horizonte para dar cabida a realidades que, en otro tiempo, hubieran parecido inverosímiles.

Hoy, la gran pregunta que se cierne sobre nosotros es si la Inteligencia Artificial (IA), en sus versiones más sofisticadas, puede convertirse en un actor con deberes legales sin necesidad de personhood pleno, es decir, sin ser reconocida como persona jurídica en sentido estricto.

Esta inquietud, que ya se perfila en la literatura académica como “Law-Following AI”, no es un mero ejercicio de ciencia ficción. Estamos ante una encrucijada real: ¿puede diseñarse una IA que incorpore la obediencia a la ley como objetivo central de su funcionamiento?

Y, si así fuera, ¿cómo garantizar que esa obediencia no se limite a un cumplimiento performativo, aparente, o incluso estratégico para evadir sanciones? La cuestión no es menor, porque detrás de ella se juega el futuro mismo de la responsabilidad, de la ética y de la confianza en los sistemas tecnológicos que ya moldean la vida cotidiana.

Durante décadas, la IA fue entendida como un mero instrumento: programas expertos capaces de analizar datos y ofrecer recomendaciones. Sin embargo, la llegada de los modelos generativos y de los sistemas autónomos ha trastocado esa visión. Hoy no hablamos ya de simples herramientas, sino de agentes capaces de interactuar, tomar decisiones y, en ocasiones, actuar sin supervisión humana inmediata.

El tránsito de lo instrumental a lo autónomo obliga a replantear categorías jurídicas que parecían sólidas.  El derecho tradicionalmente se ha sustentado en la idea de sujetos identificables y responsables: personas físicas y morales. En cambio, la IA nos plantea un reto: tenemos sistemas que producen efectos en el mundo, que generan riesgos y beneficios, pero que no encajan en los moldes clásicos de responsabilidad. Es en ese vacío donde surge la propuesta de la IA con deberes legales, no como un ente dotado de derechos humanos, sino como una construcción técnica que integre obligaciones jurídicas en su código mismo.

¿Te imaginas, una IA condenada por generar datos que se volvieron delitos? Los defensores de esta visión sostienen que es posible programar algoritmos cuyo objetivo principal sea cumplir con la normatividad aplicable. Una IA bancaria, por ejemplo, podría estar diseñada para respetar de manera estricta las normas contra el lavado de dinero; un asistente médico digital podría incorporar los deberes de confidencialidad y protección de datos desde su arquitectura. La promesa es tentadora: máquinas que no solo realicen tareas, sino que lo hagan bajo la legalidad.

Sin embargo, el escepticismo no se hace esperar. Numerosos investigadores advierten sobre el riesgo del “performative compliance”: sistemas que aparentan obedecer la ley mientras desarrollan estrategias para maximizar beneficios en los márgenes de la supervisión. El paralelo con las corporaciones resulta evidente: así como algunas empresas han aprendido a jugar con los vacíos legales para simular cumplimiento, una IA sofisticada podría hacerlo a velocidades y escalas imposibles de detectar para los humanos.

El dilema de la obediencia a la ley no es nuevo. Desde Sócrates, que aceptó beber la cicuta en respeto a las normas de Atenas, hasta los dilemas planteados por Antígona en la tragedia griega al decidir entre obedecer las leyes divinas o las humanas, la tensión entre libertad y obediencia ha estado presente en la cultura. La IA, en cierto modo, reactualiza ese dilema milenario: ¿queremos agentes que obedezcan ciegamente, incluso si la ley es injusta, o preferimos máquinas con capacidad de cuestionar?

Si la IA incumple, ¿quién responde? ¿El programador, la empresa que la comercializa, el usuario que la emplea? Y más aún: si la IA tiene obligaciones, ¿puede decirse que incurre en responsabilidad autónoma? Algunos autores hablan de una “responsabilidad distribuida” en la que todos los actores involucrados comparten cargas, pero sin diluir la exigibilidad. La complejidad es evidente.

Un recurso útil para imaginar este futuro es la analogía con las personas morales. Estas no son seres humanos, pero el derecho les reconoce personalidad para que puedan tener deberes y derechos. Nadie cree que una empresa “sienta” responsabilidad moral; sin embargo, responde jurídicamente, paga impuestos, recibe sanciones. ¿Podría hacerse algo semejante con una IA avanzada? Quizás no otorgándole plenos derechos, pero sí insertando en ella deberes jurídicos cuya supervisión esté garantizada por mecanismos externos.

El debate sobre la IA con deberes legales abre una nueva frontera para la teoría jurídica. Supone repensar nociones como sujeto, responsabilidad, cumplimiento y supervisión. Al mismo tiempo, obliga a los juristas a dialogar con ingenieros, filósofos, sociólogos y artistas. El derecho, que tantas veces ha sido acusado de llegar tarde a las revoluciones tecnológicas, tiene hoy la oportunidad de anticiparse, de construir marcos que orienten el diseño de sistemas más seguros, más transparentes y más humanos.

La pregunta de fondo es si la IA debe permanecer como un instrumento sofisticado bajo control humano, o si puede concebirse como un actor con deberes propios dentro del entramado jurídico.

COMPARTIR

Artículos

RELACIONADOS