portalforojuridico-AD-IA

¿Qué Deben de Tomar en Cuenta los Gobiernos al Regular la IA?

Abogado Digital

“Se deben de tener en consideración varios usos sensibles de la IA ya sea por el impacto consecuente que tiene en la vida de las personas, por el daño físico o psicológico que las decisiones de la IA puedan causar o por la amenaza que puede llegar a representar al respeto de los derechos humanos.”

El pasado mes de julio, se llevó a cabo el XIV Foro Latinoamericano: Derecho, Negocios e Innovación, organizado por Gericó Associates en la ciudad de Lima, Perú. El panel de apertura fue sobre el Panorama legal de las industrias clave en Latinoamérica. La industria de la tecnología fue representada con la valiosa ponencia de Héctor Figari, Director de Asuntos Gubernamentales de Microsoft para Ecuador, Perú, Bolivia, Paraguay y Uruguay, y la región andina, de esta ponencia compartiré en este artículo los mensajes principales debido a la importancia que hoy tiene el tema en Latinoamérica sobre cómo crear regulaciones de la Inteligencia Artificial (IA) que no frenen la innovación y logren garantizar el desarrollo ético de la tecnología, así como proteger la seguridad de la información de los usuarios.

Héctor Figari

Durante su exposición, Figari explicó la evolución que ha tenido la Inteligencia Artificial desde su creación en 1956 hasta su modalidad actual, la IA generativa, que encontramos en mecanismos como Chat GPT. Estas son las 4 etapas que ha tenia la IA en su desarrollo:

Inteligencia artificial (1956)

El campo de la informática que busca crear máquinas inteligentes que pueden replicar o superar la inteligencia humana.

Machine Learning (1997)

Subconjunto de ella que permite a las máquinas aprender de los datos existentes y mejorarlos para tomar decisiones o predicciones.

Deep Learning (2017)

Una técnica de aprendizaje automático en la que se utilizan capas de redes neuronales para procesar datos y tomar decisiones.

IA generativa (2021)

Crear nuevo contenido escrito, visual y auditivo con indicaciones o datos existentes.

Asimismo, explicó que el desarrollo de la IA debe de estar basado en principios y compartió aquellos sobre los cuales Microsoft basa sus desarrollos internos.

Principios de IA de Microsoft:

  • Equidad.
  • Confiabilidad y seguridad.
  • Privacidad y seguridad.
  • Inclusión.
  • Transparencia.
  • Responsabilidad.

Advirtió que se deben de tener en consideración varios usos sensibles de la IA ya sea por el impacto consecuente que tiene en la vida de las personas, por el daño físico o psicológico que las decisiones de la IA puedan causar o por la amenaza que puede llegar a representar al respeto de los derechos humanos. Estos son algunos de los ejemplos de dichos Usos Sensibles que enlistó:

  1. Por su impacto consecuente
    • Denegación de empleo.
    • Crédito.
    • Fianza / libertad condicional.
  2. Por el daño físico y psicológico
    • Decisiones de vida o muerte en contextos militares.
    • Toma de decisiones clínicas en el cuidado de la salud.
  3. Por la amenaza a los derechos humanos
    • Protección contra la discriminación
    • Libertad de expresión
    • Derecho a la privacidad

“Se debe aprovechar lo ya establecido por los gobiernos o las instituciones internacionales de certificación que cuentan con estándares de IA responsable. Debemos aprovechar el camino que ya recorrieron porque puede ser riesgoso desarrollar nuestros propios estándares para el comercio internacional si se tienen diversos criterios locales.”

Plan de 5 puntos para gobernar la IA

Para finalizar su ponencia Héctor Figari compartió 5 puntos que considera que, de cara al futuro, deben de tomar en cuenta los gobiernos en la gobernanza y regulación de la IA.

  1. Implementar y construir sobre los marcos de seguridad de IA del gobierno.

    Establecer y aprovechar lo que los gobiernos o las instituciones internacionales de certificación ya tienen establecido. Varios institutos de investigación ya cuentan con estándares de IA responsable. Debemos aprovechar el camino que ya recorrieron porque si nos queremos poner creativos para desarrollar nuestros propios estándares puede ser riesgoso para el comercio internacional si se tienen diversos criterios locales. El comercio, en general, hoy vive en un mundo globalizado por lo que es muy útil tener estándares que aplican en todo el mundo como sucedió con los ISO de seguridad, de privacidad de datos, etc. Es interesante pensar en implementar ese tipo de estándares también en el caso de IA.

    2. Requerir frenos de seguridad efectivos para los sistemas de IA que controlen la infraesctructura crítica

    Establecer frenos de seguridad es importante para mantener un buen control de los sistemas, sobre todo cuando estamos hablando de industrias o de usos críticos. Por ejemplo, cuando se crearon los ascensores era peligroso subirse a uno, pero con los años la tecnología ha ido desarrollando ciertas soluciones, básicamente frenos por si el ascensor se va a caer, que disminuyan los daños. Con los automóviles ha pasado lo mismo. Inicialmente empezaban a agarrar velocidad y se descontrolaban. Atrás de su creación vino la seguridad y hoy existen sensores, bolsas de impacto, etc. Esto es algo que debemos de considerar con el uso de la tecnología y la IA y con todos los sistemas eléctricos, de producción industrial y en sistemas que pueden generar cierto riesgo para los humanos.

    3. Desarrollar un marco regulatorio más amplio basado en la arquitectura tecnológica de la IA.

    Es importante aplicar el esquema y concepto de responsabilidad ya que este tipo de modelos tecnológicos traen nuevos jugadores a la mesa y nuevas situaciones que ya no caben en las regulaciones actuales pensadas para un mundo distinto. Es importante poder generar nuevas ideas entre abogados pensando en nuevas situaciones que se pueden dar, por ejemplo, vinculadas a la responsabilidad contractual, a los derechos de autor, a responsabilidad en el diseño, entre otras. En particular, hablando de la IA, la aplicación tradicional de las leyes y de los precedentes judiciales probablemente no sea la mejor solución.

    4. Promover la transparencia y asegurar el acceso académico y público a la IA

    Promover transparencia va de la mano con uno de los principios éticos de la IA que es brindar apertura de lo que se está haciendo al interior de la caja. Debemos de abrir los espacios a la discusión y a la capacitación; tener a la academia y a los universitarios aprendiendo también de IA, a los grandes académicos involucrados en estas discusiones, inclusive en la revisión de los modelos de IA.

    5. Buscar nuevas asociaciones público-privadas para usar la IA como una herramienta efectiva para abordar los retos sociales que vienen con las nuevas tecnologías.

    Es imprescindible desarrollar nuevas asociaciones público-privadas para la promoción de la inteligencia artificial responsable. En este caso, por ejemplo, es muy interesante lo que está haciendo la Unesco que desde hace un par de años lanzó un documento sobre cómo desarrollar IA responsable siguiendo muchos de los principios ya mencionados. Se está generando además un board de empresas privadas que se reúnen a discutir sobre estos temas, trabajando de la mano de Unesco y de otras organizaciones internacionales para poder seguir avanzando en la tecnología, buscando que los efectos sean en la mayoría de los casos positivos.

    “Debemos de abrir los espacios a la discusión y a la capacitación; tener a la academia y a los universitarios aprendiendo también de IA, a los grandes académicos involucrados en estas discusiones, inclusive en la revisión de los modelos de IA.”

    La entrada de nueva tecnología en el mundo genera siempre ciertos inconvenientes, lo importante es tener muy claros todos estos principios para hacerlo de manera responsable y que los beneficios siempre sean más altos que los efectos que pueda tener, buscando mitigarlos. La democratización de la tecnología es esencial para tenerla al alcance de todos los individuos y las organizaciones. 

    COMPARTIR

    Artículos

    RELACIONADOS