portalforojuridico-inteligencia artificial-cyborgs

¿Imputación Penal a los Cyborgs?

Estamos ante el expansionismo del régimen de responsabilidades legales y de las personas sujetas a regulación penal. Nada escapa a los avances tecnológicos y nadie es ajeno a la tecnología disruptiva. Pero más allá del e-Discovery Analytics, de la Artificial Intelligence, The Internet of Things y el Blockchain, la actual Sociedad del Riesgo Avanzado promueve el surgimiento del Derecho Penal Preventivo ante la necesidad de analizar el contenido, alcances y efectos de los cyborgs, los cuales hoy están en el centro del debate jurídico.

 

Los Primeros “Abogados Robot”

¿Conoces al chatbot denominado DoNotPay? Te invito a investigar sobre su creación desde el año 2015 en Inglaterra. Este World´s first robot lawyers ha logrado recuperar millones de euros en favor de sus clientes. Sin embargo, no es el único. Actualmente existen un sinnúmero de distintos chatbots y cyborgss en todo el mundo realizando una inmensidad de actividades. Por ejemplo, Estonia se prepara para tener “jueces robot” basados en inteligencia artificial, por ahora en juicios menores, aquellos en los que hay disputas de 7,000 euros o menos. Esta Inteligencia Artificial le permitirá al Estado y al gobierno estonio acelerar decenas de casos atrasados que los jueces y secretarios judiciales no pueden hacer frente actualmente.

¿Conoces a Amelia? La impresionante robot de oficina, quien trabaja brindando servicios de atención al cliente en la industria Bancaria, pudiendo memorizar un manual de 300 páginas en 30 segundos, hablar 20 idiomas y atender miles de llamadas telefónicas simultáneas.

Desconfianza en el Ser Humano

El antiguo aforismo, repetido incansablemente por el filósofo Thomas Hobbes, resume puntualmente la desconfianza que los seres humanos tenemos en los seres humanos, es decir, en las personas de nuestra misma especie: homo homini lupus. La razón resulta evidente pues “el hombre es el lobo del hombre”.

A partir de esa idea pesimista, Hobbes consideraba que el ser humano es un mal tomador de decisiones, especialmente en el terreno político, por ello, propuso la creación de un “artificio jurídico y político” para suplir al ser humano en esa tarea, al cual denominó: Estado.

Desde entonces, el Estado soberano es considerado una suerte de androide; una forma ficticia o artificial de organizar el poder político en lo social, que es capaz de suplir al ser humano (suplir al lobo predador de sus semejantes) por una estructura política regida por normas y leyes parecidas a las de la física. Ese “ser artificial”, al que se llamó “Estado”, fue comparado por Hobbes con un monstruo imaginario que tomó de los relatos bíblicos, llamado Leviatán.

Personas Sujetas y Reguladas por Derecho

Así fue como se fueron construyendo las teorías legales que incorporaron a dos tipos de personas en el Derecho. Por una parte, a las personas físicas con voluntad e inteligencia humana, capaces de tomar decisiones. Por otra parte, y a manera de ficción, se crearon otro tipo de personas denominadas personas jurídicas, con voluntad e inteligencia organizacional, las cuales tienen personalidad y patrimonio independiente de las personas físicas que las constituyen.

Es sabido que actualmente tanto las personas físicas (o humanas), como las personas jurídicas (o morales), son sujetas de responsabilidad legal, de naturaleza civil, administrativa, laboral y/o penal, entre otras.

“El Derecho actualmente se está cuestionando la necesidad de incluir a un tercer tipo de personas al régimen de responsabilidades legales. Este cuestionamiento recae sobre las personas cibernéticas con voluntad e inteligencia artificial, quienes están demostrando tener capacidad de autonomía en ‘sus decisiones’.”

Sin embargo, y para sorpresa, incredulidad o urgencia de muchos, el Derecho actualmente se está cuestionando la necesidad de incluir a un tercer tipo de personas al régimen de responsabilidades legales. Este cuestionamiento recae sobre las personas cibernéticas con voluntad e inteligencia artificial, quienes están demostrando tener capacidad de autonomía en “sus decisiones”.

La Quimera de Suplantar al Ser Humano por un “Artefacto” que Tome Decisiones Objetivas

A partir de esas ideas, el mundo tecnológicamente avanzado está soñando con sustituir a las personas humanas por sistemas, pretendiendo con ello disminuir la carga subjetiva, y muchas veces caprichosa, de las decisiones, pues en tal caso éstas serían procesadas por un sistema de información o por un cyborgs.

Un cyborgs es un objeto o cosa compuesto de elementos muy diversos, como códigos lingüísticos, robóticos, cinestesia humana, y componentes técnicos, digitales y electrónicos. Es un híbrido que realiza operaciones en parte mecánicas y en parte humanas al que suele darse una imagen antropomórfica.

El aumento de la presencia de estos androides ha producido un gran número de reacciones de reserva y alerta en diversos campos del conocimiento: desde el ético, hasta el de seguridad, el informático, la salud y, desde luego, el jurídico.

En este último campo, se abren muchas incógnitas en el Derecho como consecuencia del contenido, alcances y efectos que puedan llegar a tener los “actos y omisiones” de esos androides en la vida contractual, en el cumplimiento de las obligaciones, la exigencia de derechos, la convivencia en las relaciones humanas y jurídicas e, incluso, en la posible responsabilidad penal en caso de que una “decisión automática o algorítmica” coloque al cyborgs en el supuesto de un hecho que la ley penal califica como delito. Nos estamos refiriendo a cuestiones y situaciones con consecuencias de índole penal, más allá de lo hasta ahora regulado por el Blockchain.

Para determinar la naturaleza jurídica de un cyborgs, lo primero que debemos resolver es si se trata de una “persona”, en el sentido legal del término, y en caso afirmativo, cabría añadir otra pregunta: ¿qué tipo de persona es un cyborgs en el campo del Derecho?

De la seriedad, calidad o grado de respuesta que demos a esas cuestiones derivarán consecuencias importantes no sólo para determinar niveles de responsabilidad legal, sino para entender una nueva dimensión de la personalidad en el campo del Derecho, así como un nuevo modelo de relaciones jurídicas, contractuales, obligacionales y de imputación penal. Todo ello dentro de un mundo donde conviven los tres tipos de personas: las humanas, las jurídicas y las cibernéticas. Casos reales e imaginarios sobran, y los acalorados debates se suman a la confusión.

“La Personalidad” del Cyborgs en el Derecho

La Inteligencia Artificial (IA) es la combinación de algoritmos planteados con el propósito de crear máquinas que presenten las mismas capacidades que el ser humano.

La IA es como el aire, ya está en todos lados, en la comunicación, las finanzas, en el comercio, en el control climático, en los sistemas agrícolas, en la salud, en la educación, en el transporte de todo tipo, en la seguridad a escala global, es el asistente personal de cada humano y sociedad organizada.

Sin pretender dar respuestas ni solucionar lo que quizá sea debatible, podemos ensayar una aproximación al “concepto de persona” del cyborgs, es decir, persona cibernética, distinguiéndola de los tipos de personalidad que conocemos hasta ahora en el Derecho.

Se insiste, tradicionalmente se han distinguido dos tipos de personas capaces de realizar actos jurídicos (acciones u omisiones) de manera vinculante: las físicas, que somos cada uno de nosotros en la medida en que actuamos como individuos capaces de contraer obligaciones y adquirir derechos. Y las jurídicas, que responden a una necesidad de situar a las organizaciones, a las empresas y a los grupos humanos, en el terreno de las obligaciones y derechos, atribuyéndoles ciertas características propias de la persona humana, como, por ejemplo, la capacidad de contratar, obligarse y ser responsable ante las leyes y ante lo social.

Las personas jurídicas o morales son una ficción con la que hemos tratado de dar respuesta desde hace siglos a la actividad de los grupos humanos en el mundo del derecho; sin embargo, un conjunto de cyborgss no son un grupo humano, ni tienen las características de éste, pues no se gobiernan ni autogobiernan por un conjunto de individuos responsables en “el aquí y el ahora”, como en el caso de una empresa, corporación u organización, como ente colectivo. Un cyborgs tampoco es como una persona humana porque aun cuando posee capacidad de procesamiento de información y “de decisión”, parecida a la que posee un cerebro humano o la memoria retentiva, “no es capaz de ponderar una situación”, ni de valorar sus propias acciones u omisiones.

Sin embargo, lo cierto es que los androides cibernéticos son una realidad impresionante que tienden a expandirse rápidamente y a realizar acciones, que pueden incidir en la vida de las demás personas (físicas y jurídicas) en su patrimonio, sus posesiones, honor, reputación y libertades, pudiendo llegar incluso a cometer delitos, sin que queden claros los límites y consecuencias de la responsabilidad legal de las personas físicas o jurídicas que hayan también participado en la comisión delictiva.

Imaginemos un caso donde una poderosísima máquina de cirugía para la salud sea fabricada por una persona jurídica determinada, pero a través de la actuación de personas físicas y cyborgss, conjuntamente, adaptando miles de sensores y dispositivos electrónicos y digitales de la más avanzada tecnología, permitan después al médico operar y, por “diversas razones humanas y tecnológicas”, el paciente muera. ¿A quién se debería sancionar legalmente desde el punto de vista legal, civil y penal? ¿Al médico, al hospital, a los creadores del aparato, a los fabricantes de los dispositivos, a los que dan mantenimiento o a todos juntos? ¿Quién va a determinar funcional, operativa o tecnológicamente la responsabilidad cuando no sea notoria la identificación del problema o sea una amalgama de multifactores?

Hay otros casos como los vehículos conducidos sin conductor y un largo etcétera de casos reales. Incluso los expertos de seguridad advierten que estamos cerca de un futuro en el cual para asesinar a alguien sólo será necesaria una laptop y un código para ordenarle al vehículo en el que esa persona viaja que caiga de un puente, choque con un camión sin conductor o que se detenga de manera inesperada en medio del tránsito. Puede que los fabricantes de autos los llamen vehículos autónomos; pero los hackers les dicen “computadoras” que viajan a más de 160 kilómetros por hora. “Estos ya no son automóviles”, dijo Marc Rogers, el principal investigador de la firma de seguridad cibernética CloudFlare, “son centros de datos sobre ruedas. Cualquier parte del auto que se conecte con el mundo exterior es un posible punto de entrada para los atacantes”.[1]

Normatividad en Robótica Propuesta por el Parlamento Europeo

Esta disruptiva y vertiginosa irrupción de la Inteligencia Artificial y avanzadas tecnológicas, incluyendo la robótica, ha provocado la necesidad de que organismos internacionales y gubernamentales se cuestionen la imperante necesidad de idear, crear e implementar normativas para regular su uso y evitar su abuso; regular su empleo y evitar posibles riesgos o lesividad inminente. Por ejemplo, el Parlamento Europeo ha enunciado, entre otras cuestiones, lo siguiente:

  1. Los robots deberán contar con un interruptor de emergencia para evitar cualquier situación de peligro.
  2. No podrán hacer daño a los seres humanos. La robótica está expresamente concebida para ayudar y proteger a las personas físicas.
  3. No podrán generarse relaciones “emocionales”.
  4. Será obligatoria la contratación de un seguro destinado a las máquinas de mayor envergadura. Ante cualquier daño material, serán los dueños quienes asuman los costes.
  5. Sus derechos y obligaciones serán clasificados legalmente.
  6. Las máquinas tributarán a la seguridad social. Su entrada en el mercado laboral impactará sobre la mano de obra de muchas empresas. Los robots deberán pagar impuestos para subvencionar las ayudas de los desempleados.

Directrices Regulatorias Recomendadas por la OCDE Como Organización Privada

La OCDE y los países socios han adoptado formalmente el primer conjunto de directrices de políticas intergubernamentales sobre Inteligencia Artificial (IA), y convenido en someterse a unas normas internacionales que velen por que el diseño de los sistemas de IA los haga robustos, seguros, imparciales y fiables (París, mayo 22 de 2019). Bajo el lema “La transición digital al servicio del desarrollo sostenible” se emitieron principios orientadores basados en valores para el despliegue responsable de una IA fiable y cinco recomendaciones en materia de políticas públicas y cooperación internacional. Su objetivo es guiar a los gobiernos, organizaciones e individuos para que, en el diseño y la gestión de los sistemas de IA, prioricen los intereses de “las personas”, así como garantizar que quienes diseñen y gestionen sistemas de IA respondan de su correcto funcionamiento.

“La inteligencia artificial está revolucionando nuestra forma de vivir y trabajar, y ofrece unas ventajas extraordinarias a nuestras sociedades y economías. Ahora bien, también plantea nuevos desafíos y siembra incertidumbre y preocupaciones de carácter ético. Compete, por tanto, a los gobiernos asegurarse de que el diseño de los sistemas de IA respete nuestros valores y leyes, de forma que las personas puedan confiar en que su seguridad y privacidad serán objeto de una consideración prioritaria”, manifestó el Secretario General de la OCDE, Ángel Gurría. “Estos Principios constituirán un referente global para una IA confiable, de modo que las oportunidades que brinda redunden en los mejores resultados para todos”, apostilló.

El texto íntegro de los Principios sobre la IA puede descargarse en Internet. Esencialmente la OCDE enuncia lo siguiente:

 

  1. La IA debe estar al servicio de las personas y del planeta, impulsando un crecimiento inclusivo, el desarrollo sostenible y el bienestar.
  2. Los sistemas de IA deben diseñarse de manera que respeten el Estado de derecho, los derechos humanos, los valores democráticos y la diversidad, e incorporar salvaguardias adecuadas ‒por ejemplo, permitiendo la intervención humana cuando sea necesario‒ con miras a garantizar una sociedad justa y equitativa.
  3. Los sistemas de IA deben estar presididos por la transparencia y una divulgación responsable a fin de garantizar que las personas sepan cuándo están interactuando con ellos y puedan oponerse a los resultados de esa interacción.
  4. Los sistemas de IA han de funcionar con robustez, de manera fiable y segura durante toda su vida útil, y los potenciales riesgos deberán evaluarse y gestionarse en todo momento.
  5. Las organizaciones y las personas que desarrollen, desplieguen o gestionen sistemas de IA deberán responder de su correcto funcionamiento en consonancia con los principios precedentes.

En consecuencia, la OCDE recomienda a los gobiernos:

 

  • Facilitar una inversión pública y privada en investigación y desarrollo que estimule la innovación en una IA fiable.
  • Fomentar ecosistemas de IA accesibles con tecnologías e infraestructura digitales, y mecanismos para el intercambio de datos y conocimientos.
  • Desarrollar un entorno de políticas que allane el camino para el despliegue de unos sistemas de IA fiables.
  • Capacitar a las personas con competencias de IA y apoyar a los trabajadores con miras a asegurar una transición equitativa.
  • Cooperar en la puesta en común de información entre países y sectores, desarrollar estándares y asegurar una administración responsable de la IA.

 

¿Responsabilidad legal y penal del cyborgs?

El problema radica en que el cyborgs (persona cibernética) no es constantemente conducido por un cerebro humano, sino que procesa información de manera automática. Es un autómata y, como tal, sus acciones y movimientos no dependen de un acto voluntario actual, sino de una reacción que proviene de una lógica consecuencial típica de un sistema autorreferencial (máquina digital).

En otras palabras, una vez que el inventor, diseñador o el fabricante concluyen su trabajo, colocando innumerables componentes e introduciendo la información de “la lógica de automaticidad” en el sistema, dejan de ser, aparentemente, responsables por los actos que el autómata, por sí mismo, realice; salvo que se demuestre que un algoritmo o un dato del sistema ha sido alterado dolosamente, de origen, con el objeto de cometer ilícitos.

De ahí la enorme dificultad y suma complejidad para encuadrar en un marco de responsabilidad legal y penal a un cyborgs que actúa como si fuera “persona”, pero no lo es, ni en el sentido humano, ni en el jurídico, puesto que su automatismo le aleja de la posibilidad de un control directo e, incluso, indirecto por parte de un contralor u órgano de control, será un órgano colegiado, consejo de administración o de un administrador único.

“Para determinar la naturaleza jurídica de un cyborgs, lo primero que debemos resolver es si se trata de una ‘persona’, en el sentido legal del término, y en caso afirmativo, cabría añadir otra pregunta: ¿qué tipo de persona es un cyborgs en el campo del Derecho?”

Sin embargo, un cyborgs no puede carecer de personalidad y de responsabilidad legal, por lo que es necesario que se analice la viabilidad de regularlo bajo una personalidad jurídica híbrida, específica para este tipo de “personas o cosas especiales”, tanto en los códigos civiles como en los penales.

A diferencia de los otros tipos de personalidad, ésta contemplaría dos niveles de responsabilidad: uno, gradual en el tiempo, fijando niveles de responsabilidad en diversos momentos y, otro, el de su diseño, el de su creación, el de su venta, apropiación y operación. En tales casos, la responsabilidad se fijaría por la causa que pueda haber generado una conducta antijurídica y dañina. Pero, ¿Cómo determinar objetivamente “la causa”, a manera de un derecho penal de acto, y no un derecho penal de autor?

¿Sería ético seguir manteniéndonos en la impunidad legal, en un mundo donde los cyborgss, de carácter multinivel y multifunciones, son una realidad? El debate continúa y se han acalorado los argumentos, a favor y en contra, sobre la necesidad de incluir a las personas cibernéticas en una regulación de responsabilidades legales. Al debate se suman también las naciones y las poderosas empresas, dentro de un contexto donde hay estados poderosos frente a organizaciones poderosas, y viceversa, incluyendo también a estados y a organizaciones débiles. Cada uno quiere imponer “su” regulación, ya sea a través de nomas Soft Law o Hard Law, respectivamente.

En la actual Sociedad del Riesgo, el potencial lesivo y las amenazas o vulnerabilidades se incrementan por los disruptivos avances tecnológicos. Hay quienes incluso califican el contexto de hoy como la Sociedad del Riesgo Avanzado, precisamente ante los novedosos peligros y riesgos de la tecnología avanzada, más allá del mero comportamiento humano u organizacional.

El debate no debe consistir en idear imputaciones de responsabilidad legal o penal por la mera sospecha de riesgos imaginarios, sino con base en un objetivo “enfoque basado en riesgo” u orientación al peligro, daño y lesividad generada por los creadores, inventores, creativos, fabricantes, comercializadores u operadores de cyborgss o robots.

Lo cierto es que, en el contexto actual, y por la inagotable combinación de dispositivos, partes, componentes, suministros de energía, etc., con los que cuentan las cosas de la Inteligencia Artificial, en caso de ocurrir un siniestro (doloso/intencional o culposo/negligente), bien podría diluirse o eludirse cualquier tipo de responsabilidad legal por parte de las personas intervinientes, físicas o jurídicas, respectivamente. Nótese que, ante algún caso, siniestro, evento dañino o contingencia lesiva, los hechos se deberán investigar y contrastar frente a un espectacular incremento de las interconexiones, interrelaciones, interjurisdicciones e intercomunicaciones tecnológicas que provocan una gran complicación y complejidad de explicaciones e interpretaciones legales. Máxime cuando los actos y efectos tecnológicos avanzan muchísimo más rápido que las leyes y normas del Derecho.

La situación se agrava también frente al hecho de que cada vez se hacen más anónimos los contenidos, alcances y efectos de los comportamientos en el mundo tecnológicamente avanzado. Tales anonimatos hacen imposible la atribuibilidad de la conducta o imposible el acreditamiento del origen de las decisiones, sin permitir una estandarización de responsabilidades. Tampoco se trata de justificar la intervención del Derecho bajo la figura de la “responsabilidad objetiva”. Pero lamentablemente estamos a merced de conductas cibernéticas impunes o algoritmos no identificables con autonomía de decisión, con independencia de los ataques perpetrados por hackers de todo tipo.

Como diría Schünemann, debemos tomar en cuenta la incidencia en que ha de operar la misión del derecho penal preventivo o el derecho penal del riesgo en la sociedad del riesgo tecnológico avanzado. La necesaria actualización del derecho penal es inagotable y su adaptación a las novedosas relaciones sociales es todavía incierto.

Por otro lado, continúa la discusión respecto de si es necesaria la criminalización del comportamiento cibernético o si, por el contrario, bastaría la tutela o protección legal, no necesariamente penal. Es decir, la discusión de si el derecho penal preventivo o el derecho penal del riesgo pueden o no, deben o no, prohibir resultados lesivos o solamente acciones peligrosas o riesgosas. Discusión que surge también ante el tema de la responsabilidad por producto (Product Liability Cases), cada vez más demandada ante los nuevos retos, daños y lesividad de productos tecnológicos. Ante esto, las teorías y diseños de la dogmática penal tradicional son totalmente insuficientes.

El desafiante reto de la comprensión de lo, hasta hoy, desconocido, por parte del Derecho, es que toda esa novedosa, potencial o eventual regulación logre armonizar, congruente y consistentemente, con el paradigma de los incipientes Estados de Derecho, ante la amenaza de los autoritarismos regulatorios y la incertidumbre en la Sociedad del Riesgo Tecnológicamente Avanzado. En este tema, el compliance penal se hace y hará siempre presente. Bienvenidos al debate…

 

 

 

 

[1] Nicole Perlroth. Los autos pueden ser “hackeados” a distancia y las automotrices quieren remediarlo. The New York Times. Disponible en: https://www.nytimes.com/es/2017/06/14/automoviles-ciberseguridad/

COMPARTIR