¿Es posible evitar los daños ocasionados por el uso de Machine Learning en redes sociales?

Trabajo de investigación presentado durante el 1º bimestre del año 2021 por la alumna Martina Fumiere en el contexto de la asignatura «Inteligencia Artificial y Derecho», dictada por la Profesora Cecilia C. Danesi en la Facultad de Derecho de la Universidad de Buenos Aires.





Todo lo que nos ocurre, incluso las humillaciones, las desventuras, los bochornos, todo nos es dado como material, o como arcilla, para que modelemos nuestro arte. - J. L. BORGES[1].





1) Introducción

No es noticia que hoy en día, con el avance de la tecnología, utilizamos las redes sociales para interactuar constantemente. Así, compramos productos, nos informamos, contratamos servicios, conectamos con familiares o amigos, entre otras cosas, a partir del uso de estas redes. Pero, ¿en qué medida las redes sociales influencian de forma negativa en nuestras vidas?

Mediante el presente trabajo de investigación, introduciremos el uso de los algoritmos de machine learning, (también llamado “aprendizaje automático”) aplicados en las redes sociales, para así analizar su relación desde el ámbito de la responsabilidad civil, por los daños que podrían ocasionar.

En este sentido, abordaremos cómo desde nuestro ordenamiento jurídico, podemos responder frente a los daños derivados por esta herramienta de inteligencia artificial, y qué proponemos para prevenirlos.


2) Algunos conceptos previos

En principio, debemos aclarar que no existe una equivoca definición respecto del concepto de Inteligencia Artificial (en adelante “IA”), sin embargo, a los fines del presente trabajo - tomando los parámetros de los especialistas Luger y Stubblefield[2]- entendemos a la IA como una rama de las ciencias de la Computación que se ocupa de la Automatización del comportamiento inteligente.

Uno de los campos más comunes e importantes en el ámbito de la IA, es la técnica de Machine Learning (en adelante, “ML”), que se trata de un sistema de datos de aprendizaje automático. El creador de este término, Arthur Samuel, define al ML como un campo de estudio que proporciona a las máquinas la capacidad de aprender sin ser programadas de forma explícita[3].

Si bien pocas veces se escucha hablar del término “Machine Learning”, debemos destacar que esta técnica se presenta en la mayoría de las herramientas que utilizamos diariamente. Es decir, desde que nos levantamos y desbloqueamos nuestro Smartphone a través del reconocimiento facial, hasta las recomendaciones de las plataformas de streaming, los resultados de los motores de búsqueda de internet y los mails que recibimos etiquetados como spam.


3) ¿Cómo funcionan los modelos de Machine Learning?

El sistema de ML, consiste en algoritmos de aprendizaje automático, que trabajan sobre la base de una gran cantidad de datos, para entrenar al sistema a fin de que realice una predicción, o agrupe elementos, según el resultado que se espera obtener[4].

El aprendizaje automático se refiere a la capacidad del software y computadoras de conjuntos muy grandes de datos que permite a los sistemas adaptar su comportamiento a circunstancias cambiantes[5].

Es decir, es una técnica que, a medida que analiza los datos que se le proveen, estudia los diferentes patrones para crear predicciones o comprender las relaciones entre variables[6]. Esta herramienta, se basa en procedimientos matemáticos y estadísticos, partiendo de una serie datos relevantes introducidos (también llamados input data) a fin de que aprenda las reglas relacionadas con el objetivo determinado, para así automatizarse.

Un sistema de ML aprende con ejemplos, no con instrucciones. Es por ello, que se afirma que debe ser entrenado, y no programado[7], ya que a mayor cantidad de datos y resultados a analizar, mejor realizará el trabajo deseable.

A modo de ejemplo, proponemos el siguiente planteo, a grandes rasgos, para un entendimiento de ML, en lenguaje claro:

Supongamos que queremos diseñar un sistema de ML cuyo objetivo sea que reconozca cuentas falsas en una red social. Para ello, le introduciremos información sobre las conductas de las cuentas falsa que permitan detectarlas (input data), por ejemplo, según la cantidad de solicitudes de amistad que envié por minuto, si realiza excesivas publicaciones, según si no tiene fotografías, dependiendo del nombre de usuario, o las cuentas con las que interactúa. Así, a mayor cantidad de datos que introducimos en este sistema, mayor será el rendimiento para detectarlas.

Luego, debemos entrenar al algoritmo con información constatada, haciéndole saber cuáles son o no las características que coinciden con el objetivo propuesto (“A” se trata de una cuenta falsa; “B” no es falsa).

Consecuentemente, evaluaremos el modelo, dándole nuevos ejemplos de cuentas en la red social, a fin de verificar si el algoritmo cumple con el objetivo que deseamos. Posteriormente, realizaremos un diagnóstico del porcentaje de errores para así, retroalimentar al sistema a fin de mejorar su rendimiento a medida que aprende de sus defectos[8].

Debemos tener en cuenta que en el mundo digitalizado en que convivimos, la cantidad de datos existente es inmensurable, y crece potencialmente cada segundo que utilizamos cualquier aparato electrónico. Es por ello, que los métodos de ML vienen a ayudarnos a realizar un seguimiento, análisis, detección y predicción de datos, que se implementa en variados ámbitos,[9] tales como en las empresas, para medir su productividad, en la medicina para identificar síntomas, en ciberseguridad para detectar virus, en la selección de personal, entre otros.


4) Daños derivados del uso de Machine Learning en redes sociales

La IA en forma de aprendizaje automático se alimenta de datos masivos, y se está volviendo cada vez más poderosa[10]. Es por eso las redes sociales utilizan el sistema de ML, que si bien es muy útil, también trae aparejados perjuicios para los usuarios, especialmente, para los sectores históricamente sojuzgados.

Es necesario tener en cuenta que los datos que se setean en los modelos de ML, se basan a partir de decisiones humanas sobre cuál es la información a la que se le prestará atención, y cuál se dejará afuera (ya sea por decisión o por no tenerla).

Estas elecciones, se fundan normalmente en cuestiones estadísticas, logísticas, de beneficios y de eficiencia, pero también en decisiones morales[11], que conllevan consecuencias para la sociedad que los consume.

Esto quiere decir que los sistemas de ML son discriminatorios? No, los algoritmos de ML no están sesgados desde su nacimiento, sino que aprenden a ser parciales[12]. Lo que ocurre, es que están codificados de acuerdo a los datos que se le introducen, y estos, están históricamente sesgados, por la simple razón de que la sociedad está repleta de prejuicios.

Es por ello, que los grupos más vulnerados, son los que también sufren daños respecto de los algoritmos de ML en el uso de las redes sociales. ¿Por qué se decide mantener una publicación de desnudez de una modelo, y eliminar la misma imagen de otra modelo con un cuerpo no concebido como “socialmente hegemónico”[13]? ¿Cuáles son las bases objetivas para qué Tinder recomiende más (o menos) a un usuario según su “nivel de deseabilidad”[14]? ¿Cómo es que los sistemas de reconocimiento facial tienen mayores dificultades cuando no están frente a rostros blancos?

Los daños que pueden llegar a padecer las personas a partir de los algoritmos de ML y sus sesgos, llevan a consecuencias exorbitantes en la vida de un ciudadano. Por ejemplo, deciden si una persona es admisible para entrar a la universidad, ser condenado a prisión, pedir un préstamo o conseguir un trabajo.[15]

También se advierte este problema en los casos de detección de contenido agraviante, y su eliminación por parte de redes sociales, ya que la que decide que publicación será susceptible de eliminación, será cada plataforma – sin justificativos ni control estatal alguno.

En atención a la cantidad de datos y publicaciones, se usan algoritmos de ML para detectar contenidos lesivos, pero como ya mencionamos, este sistema de IA puede traer aparejados errores y/o acciones discriminatorias. Tal es así, que sistemas vinculados a detectar contenido online, tienen más probabilidades de etiquetar tweets ofensivos si son publicados por personas afroamericanas.

Por otro lado, un tema que también merece nuestra atención es el de la publicidad personalizada. De esta forma, utilizando sistemas de IA, las plataformas nos muestran contenidos adaptados con la información recabada de nuestras búsquedas en línea, visualizaciones e intereses.

En este sentido, es que si por ejemplo, buscamos una vez un par de zapatillas especifico, a posteriori terminaremos viendo publicidades de calzado por todas las redes sociales.

Pero, ¿qué ocurre cuando, a una persona ludópata constantemente le aparece contenido respecto de productos adictivos relacionados al juego, o cuándo a una persona lastimada psicológicamente, le aparecen imágenes que agravan su dolor?

Caso similar, es lo ocurrido en Estados Unidos, donde Gillian Brockell, publicó una carta abierta en las redes pidiendo encarecidamente que dejen de mostrarle anuncios relacionados con la maternidad, luego de haber perdido un bebé[16].


5) Marco legal

Actualmente no existe un marco normativo en nuestro país que prevea el análisis de la IA desde la órbita del derecho civil. En este sentido, es necesario traer a colación lo dispuesto por la Resolución del Parlamento Europeo en octubre de 2020, titulado “Régimen de responsabilidad civil en materia de inteligencia artificial”, donde se afirma:

La cuestión de un régimen de responsabilidad civil en materia de IA debe someterse a un amplio debate público que tenga en cuenta (…) los aspectos éticos, jurídicos, económicos y sociales, a fin de evitar las confusiones y los temores injustificados que esa tecnología pueda causar entre los ciudadanos.”[17]

Pues bien, consideramos necesario en nuestro país, una regulación actual y adaptada al ámbito de la IA, con todos los tecnicismos y divergencias morales que la materia implica. Sin perjuicio de ello, al no contar con dicha regulación hoy en día, analizaremos el tema desde la teoría del riesgo creado prevista por los arts. 1757 y 1758 del CCCN, por considerar la más atinada.

El artículo 1757 dispone: “Toda persona responde por el daño causado por el riesgo o vicio de las cosas, o de las actividades que sean riesgosas o peligrosas por su naturaleza, por los medios empleados o por las circunstancias de su realización(...)”.

Se desprende la convergencia con la mencionada teoría, porque al hablar de los sistemas de ML, estamos frente a una cosa riesgosa, que puede actuar de manera independiente, ya que el aprendizaje automático permite realizar tareas específicas de forma autónoma[18] y por ende sus consecuencias pueden ser imprevisibles.

En este sentido es que, frente a los daños ocasionados por el uso del ML deberán responder de forma objetiva, el dueño o guardián de la cosa. Este último, podría encuadrarse como el sujeto con el deber de mantener el software en buen estado[19].

En cuanto al daño resarcible, es menester destacar como rubro principal a ser indemnizando en este tipo de casos, al daño extramatrimonial. El mismo, tendrá lugar cuando se encuentren lesiones al honor, a las afecciones legítimas o a los derechos inherentes a la personalidad. En este sentido, los damnificados por el daño que los algoritmos de ML puedan llegar a ocasionar como por ejemplo, los sufridos por una discriminación racial o de género por parte de una plataforma al eliminar o no mostrar determinado contenido se encontrarían amparados por nuestra legislación.

Sumado a ello, el análisis de los daños por el uso de las redes sociales debe encuadrarse en el ámbito del derecho de consumo y la ley 24.240, donde dentro de las obligaciones por parte de las plataformas, destacamos el deber de informar de forma clara (el que en estos casos comúnmente se encuentra desviado), y la prohibición de publicidad abusiva y engañosa.

Sobre este último consideramos que la constante publicidad personalizada podría encuadrar en un supuesto de técnica abusiva, entendiendo a las mismas como llenas de sugestión pero escasas de información, encaminadas hacia la persuasión, con mecanismos motivantes incitadores del consumo, deformando la opinión del consumidor de seleccionar racionalmente el producto o servicio y restringiendo la espontaneidad de su elección.[20]


6) ¿Es posible evitar los daños ocasionados por el uso de ML en redes?

Sin perjuicio de lo expuesto, también es necesario tratar el tema en cuestión desde el ámbito de la función preventiva del derecho, la que se encuentra encuadrada en los arts. 1710 y concordantes de nuestro CCCN, y reviste una gran importancia actualmente en nuestro el sistema de responsabilidad civil[21].

El auge de la IA, el uso cotidiano de algoritmos de ML y el tecnicismo que estas ramas implican, ubican a los usuarios de los sistemas en un lugar de vulnerabilidad agravado. Preocupa las consecuencias que ello puede traer aparejado, ya que se ve impulsada la desigualdad global, y se beneficia a una pequeña proporción de personas.[22]

Es por ello, que proponemos una serie de acciones desde una mirada preventiva. a fin de frenar el avance de los daños que pueden llegar a ocasionarse.

En primer lugar, proponemos tratar el tema desde los orígenes del sistema. Es decir, repensar la creación de los algoritmos de ML a fin de que las bases de la información integrada al sistema, revista el carácter de inclusiva. Sobre esto, Joy Buolamwin -activista y científica informática- [23] propone 3 pautas a tener en cuenta: prestar atención a (i) quién codifica, (ii) cómo se codifica, y (iii) para qué codificamos.

Sobre las primeras dos pautas, mencionamos que se deberían crear equipos de trabajo con un amplio espectro de diversidad, que tengan una educación integral obligatoria en ámbitos de moral, género, de ética y de igualdad.

En la actualidad, los programadores generalmente datan de grupos homogéneos y poco diversos, y esto puede acarrear consecuencias. Un ejemplo de ello, fue en el año 2017 en la presentación de Apple de los relojes inteligentes “wearables”, donde dicho aparato medía hasta la glucosa en sangre, pero olvidaron programarlo para que controle el ciclo menstrual femenino.[24]

En cuanto al para qué se codifica, proponemos la implementación de proyectos que se dediquen a la creación de algoritmos de IA que busquen sesgos en otros softwares. También consideramos necesaria la auditoría de datos, para analizar como están seteados los algoritmos de ML, y así erradicar la información sesgada.

Sumado a ello, proponemos la implementación de un juramento hipocrático por parte de los programadores de sistemas como los de ML, para recordarles el compromiso y la influencia que su trabajo implica para la sociedad toda.


7) Conclusión

A lo largo de la presente investigación, estudiamos una aproximación de los sistemas de Machine Learning en el ámbito de la IA, para luego introducir cómo los mismos pueden generar daños a los usuarios en su aplicación en las redes sociales.

Para entender el por qué de los sesgos de los algoritmos de ML, debemos tener en cuenta que los humanos estamos rodeados de prejuicios. Esto significa, que es necesario asumir un cambio urgente, desde una mirada preventiva y resarcitoria, caso contrario, se continuará potenciando el círculo vicioso de la discriminación a los grupos más vulnerados.

Por ello, en miras a un futuro más igualitario, es necesario integrar valores éticos y morales en la sociedad, para también introducir a los mismos desde los datos integrados a los sistemas de ML.

Las acciones a tomar, no deberán solamente venir por parte del derecho, sino que debe ser una revolución interdisciplinaria, que ponga el foco en las personas más susceptibles de ser dañadas, para a partir de la técnica la ciencias y la moral, poder frenar esta cadena.


8) Bibliografía General

· Álvarez Vega, Marianella “Inteligencia artificial y aprendizaje automático en Medicina”. Revista Médica Sinergia Vol 5, agosto 2020.

· A.L. Samuel “Some studies in machine learning using the game of checkers.” en IBM JR 3. Año 1959.

· Buolamwin, Joy “Cómo lucho contra el sesgo en los algoritmos” Noviembre 2016. TEDxBeaconStreet.

· Danesi, Cecilia “La responsabilidad civil en la era de la inteligencia artificial” en La Justicia Uruguaya Año LXXIX, Tomo 156, Diciembre 2018

· Fernandez, Hector. “Qué es el machine learning?” Eocnomia TIC.

· Fernandez,Khatiboun, Alejandro “Machine learning en Ciberseguridad”, pag.12. Universidad Oberta de Catalunya, 04/07/19.

· Grupo Europeo sobre Ética de la Ciencia y las Nuevas Tecnologías de la Comisión Europea “Declaración sobre Inteligencia artificial, robótica y sistemas “autónomos”, 09/03/2018.

· Kemelmajer de Carlucci, “La función preventiva de la responsabilidad en el Código Civil y Comercial de la Nación”, 2016

· Luger, G., Stubblefield, W. “Artificial Intelligence: Structures and Strategies for Complex Problem Solving” 1993. Pearson Education Limited.

· NOTICIAS ONU. “Sesgos, racismo y mentiras: afrontar las consecuencias no deseadas de la inteligencia artificial”

· O’Neil, Cathy “Armas de destrucción matemática”. Año 2016. Editorial Capital Swing.

· ONU “Tackling Social Norms: A Game Change For Gender Inequialities”

· Redacción España “ Etapas del Proceso de ML”, 09/11/2020

· Resolución del Parlamento Europeo, “Régimen de responsabilidad civil en materia de inteligencia artificial”. 20/10/2020.

· RockingData “Hablemos de data 2 - Resolver problemas de negocio con Machine Learning”

· Stiligtz Gabriel, “Daños al consumidor: publicidad, información y cláusulas abusivas” en Trigo Represas, Félix, “Derecho de Daños”.

· UE. “Un enfoque europeo de la inteligencia artificial.” 09/07/20



9) Referencias

[1] Alifano, Roberto. “Conversaciones con Borges” pg. 188. Editorial Atlántida, 1984. [2] Luger, G., Stubblefield, W. “Artificial Intelligence: Structures and Strategies for Complex Problem Solving” 1993. Pearson Education Limited. [3] A.L. Samuel. “Some studies in machine learning using the game of checkers.” IBM JR 3. 1959, pg. 210-229 [4] RockingData “Hablemos de data 2 - Resolver problemas de negocio con Machine Learning” Youtube, minuto: 00:3:24. Disponible al 11/04/21 en: https://www.youtube.com/watch?v=WkciC2YSX4w&ab_channel=RockingData [5] UE. “Un enfoque europeo de la inteligencia artificial.” 09/07/20 Disponible al 11/04/21 en: https://digital-strategy.ec.europa.eu/en/policies/european-approach-artificial-intelligence [6] Álvarez Vega, Marianella “Inteligencia artificial y aprendizaje automático en Medicina”, pg. 4. Revista Médica Sinergia Vol 5, agosto 2020. Disponible al 11/04/21 en: https://www.medigraphic.com/pdfs/sinergia/rms-2020/rms208j.pdf [7]Fernandez Khatiboun, Alejandro “Machine learning en Ciberseguridad”, pag.12.Universidad Oberta de Catalunya, 04/07/19. Disponible al 11/04/21 en :http://openaccess.uoc.edu/webapps/o2/bitstream/10609/97546/7/afernandezkhTFM0619memoria.pdf [8] Redacción España “ Etapas del Proceso de ML”, 09/11/2020. Disponible al 11/04/21 en : https://agenciab12.com/noticia/etapas-proceso-machine-learning [9] Fernandes, Hector. “Que es el machine learning?” Eocnomia TIC. Disponible al 11/04/21 en: https://economiatic.com/machine-learning/ [10] Grupo Europeo sobre Ética de la Ciencia y las Nuevas Tecnologías de la Comisión Europea “Declaración sobre Inteligencia artificial, robótica y sistemas “autónomos””, 09/03/2018. Disponible al 11/04/21 en: http://www.bioeticayderecho.ub.edu/archivos/pdf/EGE_inteligencia-artificial.pdf [11] O’Neil, Cathy “Armas de destrucción matemática” pg. 342. Año 2016. Editorial Capital Swing. [12] ONU “Tackling Social Norms: A Game Change For Gender Inequialities” Marzo 2020. Disponible al 11/04/21 en: http://hdr.undp.org/sites/default/files/hd_perspectives_gsni.pdf [13] “Polémica nueva censura de desnudos en Instagram: "¿Favorece a las personas delgadas, blancas y cisgénero"?” 27/10/20. Marca. Disponible al 11/04/21 en: https://www.marca.com/tiramillas/cine-tv/2020/10/23/5f92887522601d906a8b4664.html [14] “El algoritmo de Tinder te discrimina si eres feo, pobre o una mujer inteligente” 26/03/19. Código Nuevo. Disponible al 11/04/21 en: https://www.codigonuevo.com/mileniales/algoritmo-tinder-discrimina-feo-pobre-mujer-inteligente [15] O’Neil, Cathy “Armas de destrucción matemática” pg. 24. Año 2016. Editorial Capital Swing. [16] “El algoritmo insensible: una mujer que perdió a su bebé pide dejar de ver anuncios sobre embarazos en sus redes sociales” 13/12/18. Eldiario.es. Disponible al 11/04/21: en https://www.eldiario.es/nidos/algoritmos-embarazada-muestra-excesos-sociales_1_1793293.html [17] Resolución del Parlamento Europeo,”Régimen de responsabilidad civil en materia de inteligencia artificial”. 20/10/2020. Disponible al 11/04/21 en: https://www.europarl.europa.eu/doceo/document/TA-9-2020-0276_ES.pdf [18] “Que es el Machine Learning?” Iberdrola. Disponible al 11/04/21 en: https://www.iberdrola.com/innovacion/machine-learning-aprendizaje-automatico#:~:text=El%20Machine%20Learning%20es%20una,datos%20masivos%20para%20hacer%20predicciones. [19] Danesi, Cecilia “La responsabilidad civil en la era de la inteligencia artificial” en La Justicia Uruguaya Diciembre 2018, pg. 52. [20] Stiligtz Gabriel, “Daños al consumidor: publicidad, información y cláusulas abusivas” en Trigo Represas, Félix, “Derecho de Daños”, pg. 225. [21] Kemelmajer de Carlucci, “La función preventiva de la responsabilidad en el Código Civil y Comercial de la Nación”, 2016, p. 357. [22] NOTICIAS ONU. “Sesgos, racismo y mentiras: afrontar las consecuencias no deseadas de la inteligencia artificial”04/01/21. Disponible al 11/04/21 en: https://news.un.org/es/story/2021/01/1485802 [23] Buolamwin, Joy “Cómo lucho contra el sesgo en los algoritmos” Noviembre 2016. TEDxBeaconStreet. Disponible al 11/04/21 en: https://www.ted.com/talks/joy_buolamwini_how_i_m_fighting_bias_in_algorithms?language=es#t-5310 [24]“¿Es el big data machista? Los datos sufren de sesgo de género y eso lastra a las empresas” Disponible al 11/04/21 en: https://cadenaradio.com/es-el-big-data-machista-los-datos-sufren-de-sesgo-de-genero-y-eso-lastra-a-las-empresas/