Brecha de género e inteligencia artificial

La incidencia de la inteligencia artificial en las brechas de género: ¿amenaza sistémica o herramienta de transformación?

La inteligencia artificial (IA) redefine aceleradamente las estructuras sociales, económicas y políticas contemporáneas. Su integración en ámbitos como el empleo o la justicia promete eficiencia, innovación y accesos ampliados. Sin embargo, al mismo tiempo, revela tensiones éticas profundas. En especial, su capacidad para reproducir inequidades históricas la convierte en un mecanismo para la persistencia o reducción de las brechas de género. Su expansión en la región de Latinoamérica —cuyo mercado superó los 4.7 mil millones de dólares en 2024 y crecerá más del 20% anual hasta 2033[1] — convive con realidades que limitan el acceso y la agencia de las mujeres. Esta tecnología opera como un espejo amplificador: en contextos inclusivos, potencia oportunidades; por el contrario, en ecosistemas desiguales, reproduce y profundiza exclusiones. Por ello, resulta crucial examinar cómo estos sistemas (construidos, entrenados y desarrollados por humanos) pueden convertirse tanto en mecanismos de inequidad como en motores de justicia.

Marco conceptual: algoritmos y sesgos estructurales

Los algoritmos pueden entenderse como secuencias estructuradas, claras y finitas de instrucciones destinadas a resolver un problema, procesar información, ejecutar cálculos o apoyar la toma de decisiones[2].Constituyen, por tanto, el núcleo operativo de los sistemas de IA. Lo que antes era simplemente una herramienta de análisis o predicción se ha transformado en un componente decisivo dentro de procesos organizacionales.

El desarrollo exponencial de los algoritmos responde a varios factores. Por un lado, permiten niveles de eficiencia inéditos, al incrementar de manera significativa la velocidad y el volumen de datos que pueden procesarse. Por otro lado, ofrecen una apariencia de neutralidad, pues, en principio, los resultados dejarían de depender de la subjetividad humana. Sin embargo, esta supuesta imparcialidad es cuestionable, ya que tanto el diseño de los modelos como los datos empleados para entrenarlos pueden incorporar y reproducir desigualdades preexistentes.

Ciertamente, al entrenarse con información histórica marcada por desigualdades, heredan y proyectan esos sesgos hacia el futuro. Así, un sistema de reclutamiento alimentado con datos provenientes de sectores donde los hombres han ocupado la mayoría de puestos de liderazgo puede terminar desfavoreciendo a las postulantes mujeres, al interpretar como señales de menor idoneidad patrones que simplemente reflejan una desigualdad previa. Un caso ampliamente citado es el de Amazon en 2018, cuando la empresa empleó un algoritmo para evaluar candidatos y este terminó descartando sistemáticamente los perfiles femeninos[3].

El aporte del GenderTech

La IA también puede operar como herramienta de equidad cuando se diseña con enfoque de género. Este giro conceptual se articula en el GenderTech, que concibe la tecnología no solo como instrumento funcional, sino como medio para la justicia social. También denominado Gender Technology, este término alude al desarrollo y aplicación de soluciones tecnológicas orientadas a promover la igualdad. Su premisa central es integrar principios de enfoque de género en todas las etapas del diseño, implementación y evaluación tecnológica, partiendo de la idea —ampliamente reconocida— de que la tecnología no es neutral y puede tanto reproducir como corregir sesgos estructurales[4]. Estas herramientas, de marcado carácter social, priorizan el beneficio colectivo y buscan fortalecer la inclusión en áreas como el empleo, la justicia o la prevención de la violencia.

Es importante subrayar que el GenderTech no se refiere únicamente a tecnología creada por mujeres o dirigida exclusivamente a mujeres, sino a sistemas construidos desde una perspectiva de género deliberada, orientados a enfrentar problemas que afectan de manera desigual a ciertos grupos o a generar oportunidades donde antes existían barreras. En este sentido, no se limita al uso funcional de herramientas tecnológicas, sino que incorpora una intencionalidad transformadora.

En el ámbito del acceso a la justicia, la IA se ha incorporado mediante asistentes virtuales y chatbots jurídicos que brindan orientación sobre derechos, procedimientos y rutas de denuncia a mujeres que enfrentan situaciones de violencia, especialmente en zonas rurales o con limitada presencia del Estado. Un ejemplo de ello es el programa Improve en España, financiado por la Unión Europea, que desarrolla un asistente conversacional multilingüe basado en IA para ofrecer asesoramiento inmediato y evaluar riesgos a víctimas que no pueden —o no desean— acudir directamente a una comisaría o contactar a la policía[5].

Asimismo, la IA está transformando la investigación criminal al optimizar el trabajo de las autoridades policiales. Legislaciones procesales como la LECrim española ya contemplan el uso de sistemas basados en IA para apoyar el descubrimiento y esclarecimiento de delitos. Entre estas herramientas se incluyen tecnologías de reconocimiento facial y de voz, análisis automatizados de grandes bases de datos, modelos predictivos para la acción policial, autopsias digitales y monitoreo de redes sociales para identificar vínculos relevantes, entre otros. Debido a su impacto potencial, estos sistemas se catalogan como de “alto riesgo”, lo que implica que su uso está permitido, pero sujeto a estrictos estándares de transparencia, supervisión humana, robustez técnica, precisión y ciberseguridad.

Conclusión

El diseño, entrenamiento y despliegue de la IA puede reproducir e incluso potenciar las desigualdades de género preexistentes, especialmente cuando los modelos se construyen sobre datos sesgados o se desarrollan en entornos con poca diversidad. La falta de representatividad en los equipos técnicos y los sesgos presentes en los datos y en las etiquetas de entrenamiento se combinan para generar resultados discriminatorios que afectan directamente el acceso de las mujeres. Frente a ello, el enfoque GenderTech se presenta como una respuesta transformadora. Al promover tecnologías conscientes de su impacto social, basadas en datos inclusivos y sustentadas en principios éticos y jurídicos, demuestra que la IA puede ser una herramienta para cerrar brechas estructurales. No obstante, para materializar este potencial se requiere avanzar hacia una regulación integral, flexible y centrada en derechos humanos. Aunque persistan temores legítimos frente a los riesgos de la IA, no debe perderse de vista su enorme capacidad de transformación cuando se diseña e implementa con responsabilidad, ética y enfoque de equidad.


[1] IMARC Group. (2025). Latin America artificial intelligence market size, 2033.

[2] Pérez-Ugena, M. (2024). Sesgo de género (en IA). Eunomía. Revista en Cultura de la Legalidad, (26), 311–330.

[3] Morffi, C., y Torres, M. (2025). Sesgos de género en la selección laboral con inteligencia artificial. Revista Societas Iuris.

[4] D’Ignazio, C., & Klein, L. F. (2020). Data feminism. The MIT Press.

[5] Montesinos, A. (2024). Inteligencia artificial en la justicia con perspectiva de género: Amenazas y oportunidades. Actualidad Jurídica Iberoamericana, 566–597.

COMPARTIR

Artículos

RELACIONADOS