Análisis del sistema «Global Information Dominance Experiment»

Trabajo de investigación presentado durante el 1º bimestre del año 2022 por la alumna Camila V. Álvarez en el contexto de la asignatura «Inteligencia Artificial y Derecho», dictada por la Profesora Cecilia C. Danesi en la Facultad de Derecho de la Universidad de Buenos Aires.


I.-Introducción.


En este trabajo, desarrollaré un análisis del sistema Global Information Dominance Experiment (en adelante “GIDE”). Este sistema que utiliza el ejército estadounidense reúne datos recopilados por satélites, radares, submarinos, elementos cibernéticos y de inteligencia, y los comparte en una nube. La función del sistema, es de prevención, ahorra tiempo a la hora de detectar las posibles amenazas que pueda recibir el ejército emitiendo alertas en tiempo real para que evalúen posibilidades y éstos tomen la acción más acertada según cada situación[1]. Este sistema se puso en práctica en diciembre de 2020, durante el experimento para su funcionamiento, en coordinación con el Comando Sur de EE. UU., el Comando del Indo-Pacífico de EE. UU., el Comando de Transporte de EE. UU., el Comando Estratégico de EE. UU. y el subsecretario de Defensa para inteligencia y seguridad. Ellos, convocaron a una prueba de su sistema de inteligencia artificial que se basó en tres etapas, mejorando cada vez más la eficacia de su sistema. A los fines de que se pruebe el funcionamiento del sistema con simulaciones de amenazas[2].

Todos los datos recopilados (Big Data) los procesa y almacena GIDE. El Big Data es considerado como una nueva forma de gestionar el conocimiento haciendo uso de la capacidad de recopilación y análisis de datos con el fin de tomar decisiones[3]. En el caso de este sistema, si bien es de aprendizaje autónomo ya que toma datos y emite resultados, no toma decisiones por sí solo porque tan solo emite alertas, quien las toma es el ejército.

GIDE 2, fue la segunda etapa de prueba de este sistema en donde se mejoró y amplió el tiempo y se obtuvieron indicios con mayor rapidez de acciones del adversario a través de IA y machine learning, este se llevó a cabo en marzo de 2021. Este sistema incorporó eventos de "vuelo en vivo" que proporcionaron información adicional al experimento que demostró no solo una mayor integración global y colaboración de comando entre combatientes, sino que también introdujo opciones de respuesta habilitadas por máquina y enlaces a conjuntos de datos de nivel de servicio en vivo.

Por último, la etapa final, con GIDE 3, llevado a práctica en 2021, mostró cómo las herramientas de software diseñadas para la colaboración, la evaluación y la toma de decisiones del comando de combatientes cruzados pueden usarse para permitir una coordinación logística global, un intercambio de inteligencia y una planificación de operaciones más efectivas. Esta prueba estaba vinculada a amenazas representativas en vivo y activos del mundo real que brindaban a las organizaciones participantes para ejercer la integración global.

Sin dudas, desde el lado preventivo y de seguridad, se puede observar claramente que este sistema trae muchos beneficios. No obstante, la investigación que desarrollaré a continuación, no se basará en los beneficios del sistema sino más bien en la falta de regulaciones actuales y en su relación con los Derechos Humanos tanto estadounidenses como globales.

A simple vista, GIDE no parece de alto riesgo. Sino más bien una inofensiva alerta. Sin embargo, considero que la aplicación de GIDE, es de alto riesgo[4], ya que, con su uso previsto, en caso de alertar respecto a un efectivo ataque hacia el ejército estadounidense, los mismos podrían accionar con lesiones e incluso muerte hacia quien este atacando, incurriendo en posibles violaciones a los Derechos Humanos. El sector destinatario de este sistema, en este caso, será cualquier ente o personas que amenacen la seguridad estadounidense, por lo que el ejército de dicho país, podría accionar con rapidez y antelación hacia los posibles atacantes.



II. ¿Es GIDE un ataque contra los Derechos Humanos?


Cabe destacar que GIDE, creó la capacidad de ver con días por adelantado potenciales amenazas, creando así, un espacio de decisión, donde el comandante operativo del ejército (en adelante el Comandante), decide si posicionar fuerzas para crear opciones de disuasión o ataque[5]. Incluso, en la presentación del sistema, el Comandante afirma que en un futuro se puede implementar la prevención del sistema para utilizar incluso con el presidente.

Por lo expuesto, cabe cuestionarnos si puede GIDE atentar contra los Derechos Humanos (en adelante DDHH). Al respecto, es menester recordar que los principios Rectores establecidos por la ONU se basan en el reconocimiento de: Las actuales obligaciones de los Estados de respetar, proteger y cumplir los derechos humanos y las libertades fundamentales. La ONU establece que: “Los Estados deben proteger contra las violaciones de los derechos humanos cometidas en su territorio y/o su jurisdicción por terceros, incluidas las empresas. A tal efecto deben adoptar las medidas apropiadas para prevenir, investigar, castigar y reparar esos abusos mediante políticas adecuadas, actividades de reglamentación y sometimiento a la justicia”.

A su vez, Canadá comenzó a formar parte del sistema elegido en el año 2020, por lo que cabe destacar que existe una Declaración de Toronto sobre la protección de igualdad y no discriminación en los sistemas de aprendizaje automático[6], la cual establece que los Estados tienen el deber de promover, proteger, respetar y hacer efectivos los derechos humanos.

Asimismo, es menester destacar que Estados Unidos forma parte de la UNESCO, la cual tiene una Recomendación sobre la Ética de la Inteligencia Artificial[7] (en adelante “la Recomendación”). Uno de los artículos de la Recomendación establece que ningún humano debería sufrir daños físicos, económicos, sociales, políticos, culturales o mentales, a lo largo del ciclo de vida del sistema de IA. Al respecto, el sistema analizado no será quien directamente cause los daños ya que únicamente se encarga de emitir alertas. Sin embargo, tras su utilización, pueden producirse ataques y violaciones a los derechos humanos por parte del ejército. El ejército, al ser un organismo estatal, no puede desentenderse de las regulaciones que protegen a los DDHH de las cuales forma parte. Justamente los Estados, son los principales responsables en respetar los instrumentos y marcos de derechos humanos en sus intervenciones en los procesos de los sistemas de IA. Los sistemas de aprendizaje automático, son los que deben ayudar a los humanos a que se propicien los medios que promuevan y defiendan los derechos humanos, no para vulnerarlos.

No sabemos al cien por ciento cómo GIDE obtiene sus respuestas, ya que el procesamiento de tanta cantidad de datos es analizado con Deep learing. Que el sistema tenga baja posibilidades de desacierto, excede el análisis en cuestión, ya que así produzca alarmas certeras o no, el objetivo del ejército es el mismo, estar preparado con la mayor antelación posible a los fines de devolver ataques armados o intervenir pacíficamente.

Así, este sistema, pasa desapercibido e inofensivo, bajo el lema de actuar con prevención y seguridad nacional. Se olvida que debe proteger, al igual que todos los sistemas de IA, los derechos humanos y las libertades fundamentales.



III. Extensión de la responsabilidad por las consecuencias del funcionamiento de este sistema.


Siguiendo a Juan Corvalán, en este caso debería existir el derecho de acceso a la información algorítmica[8], en donde el Estado estadounidense asegure el acceso a la información del sistema GIDE ya que de este puede resultar una violación a los DDHH y Tratados Internacionales al no ser transparente de dónde obtiene su información para llegar a sus resultados.

Como no podemos comprender cómo este sistema obtiene sus respuestas, tampoco podemos saber si para obtener sus resultados, éstos pueden estar cargados de sesgos algorítmicos. Así, la motivación, fundamentación y racionalidad o irracionalidad[9] de sus respuestas pueden no ser objetivas.

Al respecto, el documental Coded Bias o, en español “Prejuicio cifrado” narra cómo Buolamwini, una mujer afroamericana, especialista en informática, fundadora de la Liga por la Justicia Algorítmica, descubrió que algunos sistemas de reconocimiento facial funcionaban mejor con rostros blancos que con el suyo. Este ejemplo, nos cristaliza claramente cómo un sistema basado en inteligencia artificial puede adquirir un sesgo y cumplir mejor la tarea para la que fue diseñado en un grupo de individuos que en otro, siendo a su vez racista y discriminador.

Traigo el ejemplo a colación, ya ante la falta de transparencia de GIDE, no es de público conocimiento con qué datos fue entrenado el sistema, lo cual me lleva a argumentar que si éste está cargado de sesgos indudablemente los va a reproducir.

En este orden de ideas, la Recomendación de la UNESCO, establece que la transparencia y explicación de los sistemas de IA suelen ser condiciones previas fundamentales para garantizar el respeto, protección y promoción de los DDHH, pero, ¿es este principio aplicable a los sistemas de caja negra? En principio, la primer respuesta sería no, ya que únicamente los sistemas de caja blanca cuyos resultados son auditables y sujetos a revisión, pueden ser transparentes ya que se puede explicar y comprender cómo funciona el tratamiento del sistema[10]. En cambio, en el caso del sistema de análisis, información nunca podríamos desentrañar por completo cómo llega el sistema a esa respuesta. Ya que esta clase de IA está basada en redes neuronales y requiere de Big Data para ser entrenada. Por su modo de funcionar, se asemeja a una “caja negra” cada paso de la lógica de procesamiento de datos que sucede en el interior del sistema cuando se trata de redes neuronales.

Las naciones unidas en su informe de impacto de las nuevas tecnologías[11], estableció que un motivo de preocupación es la falta de disposiciones adecuadas en la legislación nacional sobre el uso de armas menos letales, como ser las tecnologías, que pueden adquirirse y utilizarse para los fines de la seguridad nacional. El inmensurable avance de la tecnología, trae consigo que requieran un marco regulador cada vez más exhaustivo y específico sobre todo para que se garantice el respeto de los derechos humanos en su utilización.



IV.- Comparación con el derecho argentino.


La regulación específica de IA es breve y escasa a nivel internacional, haciendo una breve analogía con el derecho de Argentina, la materia de IA no ha sido específicamente regulada. Históricamente, el derecho llega después de los hechos, y por desgracia esta no es la excepción.

En la materia y en particular en la Argentina, la elaboración de normas va por detrás de los avances tecnológicos. En mi opinión, y considerando que los sistemas de IA siguen desarrollándose exponencialmente día a día, una posible respuesta y solución por el momento podría ser encuadrar los conflictos que surjan con motivo del uso de la IA en las normas jurídicas ya existentes. Así, ante la llegada tardía de nuestras normas, podríamos aplicar los principios generales vigentes de nuestra Constitución Nacional, Código Civil y Comercial, Ley de Protección de Datos Personales, entre otras.



V.- Conclusiones.


Tras el breve recorrido realizado hasta aquí, queda en claro que los sistemas de Inteligencia Artificial se irán desarrollando a pasos agigantados, y avanzaran a niveles que hoy en día ni siquiera nos es posible imaginar. En este orden, aún no hay una respuesta integral a todas las situaciones en particular que puedan realizarse.

Sin embargo, respecto al tema de análisis, desde la declaración de Derechos Humanos de la ONU, hasta hoy en día con la Recomendaciones de la UNESCO, contamos con los pilares y pautas necesarias para en el futuro implementar una regulación que expanda los mismos y que no queden reducidos o coaccionados.

Para concluir, tras lo explayado en este trabajo de investigación, las regulaciones establecidas en la materia hasta hoy en día, son en su mayoría recomendaciones no vinculantes. En este contexto, necesitamos que las mismas se vuelvan leyes y normativas vinculantes para que se ejecute su efectivo cumplimiento.

Así como también necesitamos que se regulen nuevas normativas que se actualicen a medida que existan nuevas tecnologías, a los fines de proteger los derechos humanos y fundamentales. Asimismo, que las normativas futuras regulen integralmente todos los posibles problemas que puedan derivar de los sistemas de IA. Si bien hoy en día podemos considerar la aplicación de normativas generales, no basta con ellas para poder regular cada problemática que nos trae actualmente la IA y las que nos traerá, principalmente siguiendo el eje de lo expuesto necesitamos regulaciones urgentes sobre derechos humanos, sesgos algorítmicos, discriminación y protección a los más vulnerables.



REFERENCIAS: [1] https://www.20minutos.es/tecnologia/actualidad/el-pentagono-de-los-estados-unidos-desarrolla-una-inteligencia-artificial-que-es-capaz-de-detectar-los-ataques-militares-4784754/ [2] https://www.af.mil/News/Article-Display/Article/2703548/norad-usnorthcom-lead-3rd-global-information-dominance-experiment/ [3] Álvarez Larrondo Federico M. (2020). Inteligencia artificial y derecho. (1ª Edición). Hammurabi. https://biblioteca.hammurabidigital.com.ar/reader/inteligencia-artificial-y-derecho?location=149 [4] UE3 Un marco de la UE para la inteligencia artificial. [5] https://www.thedrive.com/the-war-zone/41771/the-pentagon-is-experimenting-with-using-artificial-intelligence-to-see-days-in-advance [6] The Toronto Declaration: Protecting the right to equality and non-discrimination in machine learning systems https://www.torontodeclaration.org/declaration-text/english/ [7] https://unesdoc.unesco.org/ark:/48223/pf0000380455_spa [8] Juan G. Corvalán – Inteligencia Artificial y Derechos Humanos – MJ-DOC-13757-AR | MJD13757 [9] Juan G. Corvalán - INTELIGENCIA ARTIFICIAL AUTOMATIZACIÓN Y PREDICCIONES EN EL DERECHO – p. 24. [10] Juan G. Corvalán - INTELIGENCIA ARTIFICIAL AUTOMATIZACIÓN Y PREDICCIONES EN EL DERECHO – Página 24. [11] Consejo de Derechos Humanos - 44º período de sesiones 15 de junio a 3 de julio de 2020 Temas 2 y 3 de la agenda Informe anual del Alto Comisionado de las Naciones Unidas para los Derechos Humanos e informes de la Oficina del Alto Comisionado y del Secretario General.