foro jurídico desarrollo de inteligencia artificial

Ética en la era de la IA: ¿nos humanizará la inteligencia artificial?

Recientemente llamó mi atención el informe El Futuro del Empleo 2025[1] del Foro Económico Mundial, que proyecta que 92 millones de empleos podrían ser desplazados por la inteligencia artificial (IA), pero también surgirán 170 millones de nuevos roles. Esperanzador, ¿no?

Pero ¿de qué dependerá esa supervivencia en el mundo digital?

Cada día me convenzo más de que las habilidades que nos hacen auténticamente humanos serán las que más valor aporten a la ecuación. Estamos en una coyuntura crítica: la IA puede amplificar o erosionar el rasgo que define nuestra humanidad —nuestras capacidades cognitivas. La creatividad, el razonamiento contextual y el juicio ético son habilidades que ningún algoritmo puede replicar por completo. Un desarrollo guiado de la IA, moldeado por científicos sociales, programadores y educadores, puede preservar y amplificar estas fortalezas en lugar de diluirlas.

Al integrar la IA en entornos educativos transdisciplinarios, podemos preparar a la futura fuerza laboral para una economía nativa de la IA: autónoma, ética y humana.

Empatía, criterio y experiencia serán parte de las habilidades blandas esenciales para navegar en esta era. Sin embargo, me pregunto: en un mundo donde las redes sociales nos han homogeneizado —hacemos lo mismo, vestimos igual, decoramos con las mismas tendencias, vamos a los mismos lugares—, ¿cómo revertiremos ese efecto de “gentrificación del ser” para volver a ser auténticos? Porque ahora, curiosamente, no paramos de hablar de autenticidad y diferenciación en estos días, pero por otro lado tenemos FOMO[2] de no hacer lo que hacen los demás.

En una reciente conferencia sobre IA, la ponente enfatizaba el valor de la creatividad humana: el papel humano sigue siendo insustituible, porque somos nosotros quienes damos contexto, propósito y sentido a cada decisión tomada por la IA. Se habló de diferenciación: en un mundo donde todos usaremos las mismas herramientas, si somos nuestra versión más auténtica, nos diferenciaremos del resto. Porque si algo introdujo ChatGPT el 30 de noviembre de 2022 fue la democratización de la IA: una revolución donde lo único necesario era saber hacer buenas preguntas.

Detrás de esa simplicidad había un principio de diseño revolucionario: la inteligencia artificial no debe reemplazar al humano; debe aumentar su capacidad de pensar. Ese enfoque —también compartido por el Stanford Institute for Human-Centered Artificial Intelligence (HAI)— fue el sello distintivo de OpenAI. El resultado: una herramienta global, gratuita y conversacional. Como bien señalaba la ponente Verónica Ruiz del Vizo[3], esta democratización nos obliga a usar la IA con ética y criterio.

Y aquí llegamos al corazón de este artículo: la ética. Este tema se vuelve prioritario. ¿Por qué? Porque será necesario establecer marcos de transparencia en los entornos laborales cuando se utilice IA para generar trabajos intelectuales.

Ya existen precedentes en Estados Unidos sobre derechos de autor y uso indebido de obras protegidas. En el caso Bartz vs. Anthropic[4], el tribunal distinguió entre el uso formativo (transformativo) y la creación de bibliotecas digitales permanentes con obras pirateadas, que no se amparan en el uso legítimo. El juez fue claro: piratear copias para crear una biblioteca de investigación sin pagar por ellas constituye un uso en sí mismo, no un uso transformativo.

En Kadrey vs. Meta[5], el juez adoptó un enfoque más cauto. Aunque reconoció el carácter transformador del uso de obras protegidas para entrenar modelos de lenguaje como LLaMA, subrayó que la transformación por sí sola no garantiza el uso legítimo. Lo determinante es cómo dicho uso afecta el valor de mercado de las obras originales.

Así, vemos decisiones judiciales que comienzan a perfilar los límites del uso legítimo de obras para entrenamiento de la IA. Pero cuando se trata de obras generadas legítimamente, entramos en terrenos aún más complejos: ¿cómo se regulan los derechos de autor en obras creadas con IA? ¿Qué ocurre si dos personas usan el mismo prompt y obtienen resultados similares? Mucho por pensar.

En su guía Profesionales en la Era Inteligente, Verónica Ruiz del Vizo propone 10 principios para usar la IA con ética y criterio. Entre ellos: verificar la información, proteger la privacidad, declarar el uso de IA siempre que sea usada, evitar sesgos, respetar derechos de autor, y alinear el uso de la tecnología con nuestros valores empresariales y personales.

En una conferencia reciente sobre ética, la abogada ecuatoriana Cristina Jaramillo[6] compartía las cuatro razones por las que una persona puede incumplir una norma o un precepto: porque no sabe, porque no puede, porque no quiere y —la más profunda— porque no siente. Esta última razón nos conecta con la empatía y los valores sociales. Porque si sintiéramos más, si nos pusiéramos en el lugar del otro, sería más fácil decidir hacer lo correcto. Y sobre esto yo me pregunto, ¿será que finalmente nos veremos obligados a ser éticos?, Cuando desplazados por el trabajo, muchas veces nuestras emociones se ven solapadas, ahora con más tiempo, y con más ganas ¿nos veremos obligados a sentir que debemos hacer lo correcto?

Sobre la flexibilidad y rapidez en el aprendizaje, la necesidad de una nueva pedagogía legal que forme profesionales capaces de navegar con criterio ético, sensibilidad humana y visión sistémica. En América Latina, esta transformación educativa no es solo deseable, sino imprescindible.

La inteligencia artificial está redefiniendo el ejercicio del derecho. Ya no basta con dominar códigos y jurisprudencia; el jurista contemporáneo debe comprender cómo operan los algoritmos, cómo se entrenan los modelos de lenguaje, y cómo sus decisiones afectan no solo a individuos, sino a sistemas enteros. En este contexto, la ética deja de ser una asignatura complementaria para convertirse en el eje rector de la formación jurídica, y de la misma manera, no solo los temas técnicos se vuelven básicos, si no también los temas relacionados con el autoconocimiento y gestión de emociones.

Esta nueva pedagogía debe integrar saberes transdisciplinarios: filosofía, tecnología, sociología, comunicación y coaching ontológico. Porque el derecho, en su esencia, es una herramienta de convivencia. Y en la era de la IA, convivir implica comprender, sentir y decidir con conciencia ampliada.

Programas de formación en ética digital, derecho algorítmico y liderazgo transformacional podrían preparar a los futuros abogados para enfrentar dilemas inéditos: ¿cómo garantizar la trazabilidad de una decisión automatizada?, ¿cómo proteger los derechos de autor en obras generadas por IA?, ¿cómo evitar sesgos en sistemas de justicia predictiva?, ¿cómo liderar con empatía en entornos cada vez más automatizados? No en vano, el reciente informe de las Naciones Unidas titulado: La inteligencia artificial en los sistemas judiciales: promesas y escollos[7] suscrito por Margaret Satterthwaite hace referencia a la necesidad de que la justicia siga siendo impartida por humanos para proteger la independencia judicial, y con respecto a esto cito “destaca que el derecho a un tribunal independiente e imparcial requiere el acceso a un juez humano y que el derecho a acceder a un abogado elegido libremente requiere el acceso a un abogado humano. El poder judicial debe responsabilizarse de la adopción de cualquier innovación que pueda afectar a la toma de decisiones de los jueces. Para proteger la independencia judicial, se debería apoyar a los jueces para que adquieran alfabetización digital y en IA y contar con la facultad y la oportunidad de consultar con tecnólogos, abogados y el público sobre qué sistemas de IA, en su caso, deben adoptarse. Debería ponerse a disposición del público la información clave sobre los sistemas de IA aplicados a la judicatura.” Aun no estamos preparados, es mi conclusión de la lectura de este informe, ¿pero acaso eso importa?

Como bien resume esta reflexión: “La IA no reemplazará al abogado ético, pero sí exigirá que cada jurista sea más humano, más estratégico y consciente del impacto de sus decisiones.”

Esta afirmación no es solo una advertencia, sino una invitación: a reinventar la educación jurídica desde la autenticidad, la empatía y el propósito. A formar líderes que no teman a la tecnología, pero que tampoco se rindan ante ella. Líderes que usen la IA como herramienta, no como sustituto. Que piensen mejor, con más corazón.

Cada foro sobre IA al que asisto me lleva a la misma conclusión: lo que agregará valor será tu esencia como ser humano. Entonces, ¿será que ser ético, auténtico y diferente se pondrá de moda? ¿Será que la IA, en lugar de deshumanizarnos, nos humanizará más? Tal vez, con más tiempo para sentir, compartir y hacer lo correcto, descubramos que el verdadero progreso no está en pensar más rápido, sino en pensar mejor. Y con más corazón.

Disclaimer: Este contenido ha sido elaborado con el apoyo de herramientas de inteligencia artificial y refleja una perspectiva personal basada en fuentes públicas y reflexiones propias.


[1] https://www.weforum.org/publications/the-future-of-jobs-report-2025/

[2] Fear of Missing out  o miedo a perderse algo

[3] https://www.linkedin.com/in/veroruizdelvizo/

[4] https://www.deep-lex.com/blog/bartz-v-anthropic

[5] https://law.justia.com/cases/federal/district-courts/california/candce/3:2023cv03417/415175/598/

[6] https://www.linkedin.com/in/cris-jaramillo/

[7] https://www.ohchr.org/es/documents/thematic-reports/a80169-ai-judicial-systems-promises-and-pitfalls-report-special

COMPARTIR

Artículos

RELACIONADOS

Pleno de la SCJN

La importancia de la cosa juzgada

Parte de la confianza que cualquier persona tiene al acudir ante algún tribunal para que se resuelva una controversia en la que se involucran sus…