Violencia en las redes sociales

En el presente artículo publicado en la revista “La Ley” del mes de febrero de 2020, las Dras. Sandra M Weirzba y Cecilia C. Danesi reflexionan sobre una solución preventiva para una problemática actual que afecta derechos personalísimos y que se refleja en nuestro día a día: la violencia en las redes sociales. Las autoras proponen el uso de la Inteligencia Artificial para la detección de contenido lesivo en medios digitales, a través de protocolos de actuación y de algoritmos adaptados a nuestra cultura y sistema jurídico.


A continuación, los invitamos a leer el artículo completo:








Violencia en las redes sociales ¿Acciones judiciales o normas y algoritmos como clave para la prevención?


Sandra M. Wierzba (*) y Cecilia C. Danesi (**)


SUMARIO: I. Introducción.— II. Algunas definiciones.— III. Experiencia y normativa comparada.— IV. Notas sobre la experiencia y respuestas jurídicas locales.— V. Notas sobre la inteligencia artificial aplicada a las redes sociales.— VI. Palabras finales.


La interoperabilidad o conectividad y la capacidad de actualización o aprendizaje son propias de las computadoras y propician un tipo de interpretación y una velocidad de actuación imposibles para un ser humano. Es así que la utilización de la IA para detectar contenido lesivo en las redes sociales se presenta como la herramienta más idónea frente a la innumerable cantidad de datos que allí se comparten.


I. Introducción (***)

En los últimos años, nos hemos venido acostumbrando a noticias que dan cuenta de que las redes sociales, más allá de ser un medio excelente para el encuentro y la comunicación entre personas, operan como un sitio adecuado para la agresión pública. Estas plataformas participativas y dinámicas devienen funcionales a cierto tipo de ataques perjudiciales para la dignidad y la honra de los individuos, que se ven favorecidos por factores como la facilidad en la construcción de publicaciones infamantes, la velocidad y los alcances de su difusión y el potencial anonimato de los responsables.

Las agresiones en las redes suelen recaer indirectamente sobre los cuerpos y bienes, y directamente sobre los llamados derechos personalísimos. En ocasiones son lo suficientemente graves como para habilitar la destrucción o degradación de las vidas de sus víctimas, causando una especie de “muerte” o “incapacidad” propia del siglo XXI. En otros casos, la violencia tiene por objetivo la alteración de la forma de vivir de extensos colectivos humanos, expresándose dramáticamente a través del discurso del odio o mediante noticias falsas tendientes a dirigir la voluntad de los individuos en la toma de decisiones esenciales para su futuro.

Los ciudadanos reclamamos protección y reglas claras, mientras los Estados y sus sistemas jurídicos asisten a este escenario muchas veces con perplejidad, diseñando soluciones con base en criterios de “ensayo y error”, ante una tecnología que se escurre entre los preceptos jurídicos tradicionales.

Y, como reflejo de culturas diversas, van apareciendo en el mundo reglas y prácticas que tienden a encauzar el fenómeno mencionado. El objetivo de este trabajo es hacer un breve recorrido sobre la experiencia habida y reflexionar provisoriamente sobre la prevención de daños en la materia.


II. Algunas definiciones.

Las agresiones en medios digitales se asocian a situaciones que en muchos casos cuentan ya con autonomía conceptual y se expresan generalmente en anglicismos asociados a ciertos fenómenos tecnológicos, que con el tiempo devienen figuras típicas penales y son especialmente estudiados por el derecho criminal.

Al acoso u hostigamiento cibernético en general se lo ha emparentado con el concepto de cyberstalking, donde lo característico es que el autor no se limita al uso de frases de naturaleza amedrentadora, sino que actúa de un modo sistemático para restringir la capacidad de decisión de la víctima (1).

Por su parte, y más específicamente, el cyberbullying se ha definido como “el maltrato que sufre un menor de edad por parte de otro menor de edad a través de internet u otros medios electrónicos” (2). Los más jóvenes son acechados y humillados por pares a través de diversos medios tecnológicos, donde las redes sociales son centrales, generándose problemas de adaptación social y educativa, gran angustia y miedo; en casos extremos, hasta suicidios. Estas prácticas tienen especial incidencia en el ámbito escolar y ha aparecido allí una nueva forma de acoso consistente en filmar a alguien sin su conocimiento o insultarlo a través del teléfono móvil, o difundir calumnias a través de blogs y chats. Un aspecto que hace que este tipo de intimidación sea aún más dañina es que la víctima no tiene forma de escapar, recibiendo mensajes en forma continua. En efecto, a diferencia de lo que ocurre en la intimidación tradicional, en este caso el damnificado se encuentra frente a un público más amplio e imposibilitado de identificar al agresor como para poder detener el proceso (3).

A su vez, se define al grooming como “el acoso sexual hecho por un adulto a un niño, niña o adolescente por medio de internet o u otros medios electrónicos” (4). Esta figura ha sido ya incorporada a una norma penal, que castiga con “...prisión de seis [6] meses a cuatro [4] años el que, por medio de comunicaciones electrónicas, telecomunicaciones o cualquier otra tecnología de transmisión de datos, contactare a una persona menor de edad, con el propósito de cometer cualquier delito contra la integridad sexual de la misma” (conf. art. 131 del Cód. Penal) (5). En este supuesto son adultos pederastas quienes a través de engaños contactan a personas menores de edad, procurando obtener imágenes eróticas suyas, con posterior extorsión, amenazas y exigencias de encuentros presenciales que en ocasiones terminan en una violación. Y si bien la figura encierra un fenómeno criminológico preexistente a las nuevas tecnologías, en cuanto en esencia consiste en un conjunto de acciones desplegadas por un adulto para generar una relación de confianza tendiente a lograr un contacto sexual con un joven, lo cierto es que las TIC (6) le imprimen una mayor potencialidad para alcanzar el fin ilegítimo. Cabe así afirmar que el grooming consiste en un acto preparatorio de carácter virtual, previo a un tipo de abuso de carácter corporal, tipificado en la ley (7).

Por su parte, el sexting compromete situaciones donde se produce el envío de imágenes de cuerpos desnudos o semidesnudos o de videos de contenido sexual a través de las tecnologías de la información, y por cierto constituyen una práctica frecuente en permanente crecimiento y en ocasiones comienzan como una travesura, para terminar cambiando la vida de una persona (8). Más allá del impacto de estos materiales en el universo cercano de los jóvenes, se sabe que las imágenes son recopiladas en portales de adultos y luego expuestas en diversas páginas pornográficas de todo el mundo. A su respecto, han existido iniciativas legislativas concretas para el castigo penal (9).

Pero también existen situaciones donde la violencia ejercida en las redes no se dirige a una o algunas personas, sino a colectivos discriminados en razón de su nacionalidad, religión, ideología, sexo u otras condiciones. En este sentido, cabe recordar que el art. 13 de la Convención Americana de Derechos Humanos, referido a la libertad de pensamiento y de expresión, prohíbe “...toda apología del odio nacional, racial o religioso que constituyan incitaciones a la violencia o cualquier otra acción ilegal similar contra cualquier persona o grupo de personas...”, por cualquier motivo, “...inclusive los de raza, color, religión, idioma u origen nacional” (inc. 5º). Estas conductas, asociadas al concepto conocido como “discurso del odio”, juegan un papel fundamental en la perpetuación de estereotipos discriminatorios y la estigmatización de colectivos, constituyendo un mecanismo de importancia fundamental en la deshumanización de ciertos grupos humanos, a los que se trata de negar su pertenencia a la ciudadanía en condiciones de igualdad. Mediante su proliferación y aceptación, se produce una reducción de empatía hacia los colectivos deshumanizados, pudiendo luego justificarse actos violentos de diversa naturaleza. El mundo online les ha garantizado una nueva forma de reproducción, donde se convierten en un fenómeno descontrolado con un potencial de daño aún mayor (10).

Y aunque no se pueda establecer con carácter general una conexión directa entre la proliferación del discurso de odio y los crímenes violentos de odio, cada vez hay una conciencia más clara del vínculo indirecto entre ambos fenómenos (11). La condena impuesta por el Tribunal Internacional Penal que juzgó a los responsables del genocidio de Ruanda (2008) (12) y al reconocido músico popular Simon Bikindi, quien mediante sus canciones incitó al odio a los tutsis, luego masacrados (13), resulta paradigmática y demostrativa de aquella conexión. También puede considerarse una agresión lesiva de colectivos por cierto relevantes la utilización de las redes sociales para la obtención de información sensible, con posterior distribución de propaganda personalizada —incluyendo noticias falsas o fake news—, con el fin de manipular elecciones gubernamentales u otras decisiones políticas trascendentes. Y si bien el manejo de la opinión de los ciudadanos con fines electorales hace a una práctica con raigambre histórica y cultural en variadas latitudes, el uso de las redes sociales dota a tan cuestionable mecanismo de un cariz exquisito, en tanto permite detectar valores, emociones y condicionamientos individuales e íntimos de usuarios desprevenidos de servicios digitales, para obtener finalidades que en muchos casos contrarían sus intereses y los propios de los sistemas democráticos de gobierno.

Ahora bien, el precedente catálogo de figuras y prácticas constituye sólo un botón de muestra de las variadas situaciones y categorizaciones propias de la violencia que explosiona en el entorno digital. Su descripción resulta meramente introductoria y enunciativa para este trabajo, que pretende agregar una mirada propia del derecho de daños a las variadas agresiones que inundan las redes sociales.


III. Experiencia y normativa comparada

III.1. Ensayos normativos: las medidas de la ONU y la Unión Europea. Notas sobre las prácticas y regulaciones empresarias.

La preocupación acerca del contenido que se publica en las redes sociales es —sin dudas— una temática que viene ocupando la agenda internacional. Los ejes centrales vinculados al derecho son principalmente dos: por un lado, la posible afectación a los derechos humanos, lo que incluye el difícil equilibrio entre la libertad de expresión, el acceso a la información y, consecuentemente, evitar la censura previa. Y, por el otro, la responsabilidad de las empresas por las publicaciones agraviantes.

El “Primer informe del relator especial de la ONU sobre la promoción y protección del derecho a la libertad de opinión y de expresión” (14) constituye indiscutiblemente un interesante documento sobre la materia, que aborda la cuestión de la regulación del contenido “en línea” generado por los usuarios, a través de recomendaciones a los Estados y a las empresas operadoras de redes sociales. En su Introducción se describe con acierto la situación actual. Así, se señala que, a pesar de haber adoptado medidas para hacer más transparentes sus normas y su relación con los gobiernos, las empresas siguen siendo unos reguladores enigmáticos, que establecen una especie de “ley de las plataformas” en la que es difícil percibir cuestiones como la claridad, la rendición de cuentas y los mecanismos de reparación. Las Naciones Unidas, las organizaciones regionales y los órganos creados en virtud de los tratados de derechos humanos han afirmado que los derechos fuera de línea se aplican igualmente en línea, pero no siempre está claro que las empresas protejan los derechos de sus usuarios o que los Estados les ofrezcan en las leyes incentivos para hacerlo.

El informe menciona el marco jurídico aplicable a los actores involucrados. En lo que concierne al Estado, refiere que las limitaciones que impongan a la libertad de expresión deben cumplir las siguientes condiciones (15): legalidad (16), necesidad y proporcionalidad (17), y legitimidad (18). En lo que a las empresas respecta, señala que se aplican como guía no vinculante los “Principios rectores sobre las empresas y los derechos humanos” (19), donde se establecen “normas de conducta mundial aplicables a todas las empresas”, que deben regir todas sus operaciones, cualquiera sea el lugar en el que operen.

Otra de las cuestiones relevantes que destaca el informe es que el Estado, motivado por la preocupación de la posible afectación del derecho a la privacidad y a la seguridad nacional, emite normas que entrañan riesgos para la libertad de expresión y ejerce una presión considerable sobre las empresas. Esto puede llevarlas a eliminar —inclusive— contenidos lícitos, en un afán desmedido por evitar la responsabilidad. Además, ello conlleva el riesgo de que aparezcan nuevas formas de censura previa que, a su vez, amenacen los esfuerzos creativos en el contexto de los derechos de autor.

Así, las empresas crean herramientas que les permiten filtrar y eliminar el contenido lesivo, que, debido a los enormes volúmenes de información generada por los usuarios que deben supervisar, resultan de gran valor. Un claro ejemplo son los instrumentos de moderación automatizados, que permiten detectar contenidos ilegales y llaman la atención de los revisores humanos.

También se utilizan herramientas como los filtros de palabras, los algoritmos de comparación criptográfica y el procesamiento del lenguaje natural. Asimismo, se apela a la detección por los usuarios y los detectores fiables. En todos los casos, la evaluación final queda en manos de “equipos de moderadores” que examinan la información y pueden tomar decisiones o, en supuestos dudosos, remiten el examen a los grupos de revisión de la dirección de la empresa. Pero, aun de resultar eficientes estos sistemas, cabe preguntarse cómo operan tales filtros y revisiones a nivel transnacional, especialmente cuando se exportan criterios a idiomas y países distintos a aquellos para los que fueron diseñados.

Además, el problema reposa en que, en cualquiera de esos escenarios, las empresas deciden —a veces en cuestión de segundos— censurar contenidos sin intervención de algún organismo estatal y siguiendo criterios creados por ellas mismas. Como contrapartida, bien podría argumentarse que la demora en la toma de una decisión puede conducir a que la publicación se viralice rápidamente.

En razón de todo ello, el informe concluye que la coyuntura actual exige una mejora radical de la transparencia, una rendición de cuentas genuina y un verdadero compromiso con la reparación. Ello, con el fin de proteger la capacidad de las personas para utilizar las plataformas en línea como foros donde expresarse libremente, acceder a la información y participar en la vida pública. Así, se formula una serie de recomendaciones a los Estados y a las empresas para lograr ese objetivo.

Además, y específicamente con relación a los Estados, se destacan las siguientes recomendaciones: derogar cualquier ley en virtud de la cual se penalice o limite indebidamente la libertad de expresión; restringir los contenidos mediante órdenes dictadas por una autoridad judicial imparcial e independiente (20) y evitar la delegación de la responsabilidad de evaluación de contenidos en las empresas. Asimismo, se aconseja a los Estados abstenerse de imponer sanciones desproporcionadas (dado su importante efecto paralizante sobre la libertad de expresión); promulgar leyes o concertar acuerdos que requieran la vigilancia o el filtrado “activo” del contenido (lo que es incompatible con el derecho a la privacidad y puede ser equivalente a la censura previa a la publicación) y adoptar modelos de regulación en los que sean los organismos gubernamentales, y no las autoridades judiciales, quienes se erijan en los árbitros de lo que es una expresión legítima.

Por su parte, el “Segundo informe del relator especial de la ONU sobre la promoción y protección del derecho a la libertad de opinión y de expresión”, referido a las consecuencias de las tecnologías de inteligencia artificial (IA) para los derechos humanos, se focaliza en los derechos a la libertad de opinión y expresión, a la privacidad y a la no discriminación (21). Dicho informe se desarrolla en tres ejes centrales. En primer lugar, define los términos clave para un debate sobre la IA en relación con los derechos humanos. En segundo lugar, identifica el marco jurídico de derechos humanos aplicable en materia de IA. Y, por último, presenta algunas recomendaciones preliminares para asegurar que, a medida que evolucionan las tecnologías que forman la IA, se incorporen en ese proceso consideraciones de derechos humanos.

El vínculo entre las redes sociales y la inteligencia artificial es por demás cercano: la IA permite a las empresas administrar resultados de búsquedas y transmisiones de noticias, además de la colocación de anuncios publicitarios, organizando lo que ven los usuarios y cuándo lo ven. Asimismo, las compañías de medios sociales usan tecnologías de IA como instrumento para moderar el contenido de sus plataformas, que a menudo sirve de primera línea de defensa contra publicaciones que pueden infringir sus reglas.

Así las cosas, se aprecia que mediante dispositivos de inteligencia artificial se ejerce la administración del contenido en internet, ofreciéndose medios refinados y eficientes de gestión que se encuentran fuera del alcance de los medios de información tradicionales. Pero, como contrapartida, el predominio de la IA es motivo de preocupación por su efecto inmediato en la capacidad de formar opiniones en las personas.

En tal contexto, y luego de hacer un pormenorizado análisis del uso de la inteligencia artificial y la protección de los derechos humanos (22), el informe enumera las recomendaciones dirigidas al Estado y a las empresas. En lo relativo al tema bajo estudio, se señala que las empresas deben explicitar dónde y cómo se utilizan las tecnologías de inteligencia artificial y las técnicas automatizadas en sus plataformas, servicios y aplicaciones (23). Asimismo, se aconseja la publicación de informes sobre la supresión de contenido, con estudios de casos y educación sobre el perfilado comercial y político. Finalmente, señala que las empresas deben prevenir y dar cuenta de la discriminación en los sistemas de IA, lo que incluye asegurar que los equipos que los diseñan reflejen actitudes no discriminatorias y eviten sesgos (corrección de errores de muestreo, depuración de conjuntos de datos, etc.).

La Unión Europea (UE) no se queda atrás. El instrumento que opera como base regulatoria de la cuestión bajo estudio es la “Decisión marco relativa a la lucha contra determinadas formas y manifestaciones del racismo y la xenofobia mediante el derecho penal” (24). Su objetivo es garantizar que ciertas manifestaciones graves del racismo y la xenofobia sean punibles con sanciones penales efectivas, proporcionadas y disuasorias en toda la UE. Asimismo, pretende mejorar y fomentar la cooperación judicial en este campo (25).

Otro documento verdaderamente relevante en el área bajo estudio es el acuerdo del año 2016 entre la Comisión Europea, por un lado, y, Facebook, Microsoft, Twitter y YouTube, por el otro, denominado “Código de conducta para contrarrestar el discurso de odio ilegal en línea” (26). Su propósito es ayudar a los usuarios a notificar el hallazgo de discursos de odio ilegal proferidos en estas plataformas sociales, mejorar el apoyo a la sociedad civil y generar una coordinación con las autoridades nacionales. Para lograrlo, los firmantes se comprometieron a diseñar procedimientos claros y eficaces para examinar las notificaciones relativas a la incitación al odio que se produzcan en el marco de los servicios que prestan, de manera de retirar o inhabilitar el acceso a dicho contenido dentro de las 24 horas de recibidas las notificaciones.

Se han llevado a cabo rondas de control para evaluar la aplicación del citado Código de conducta (27). La última de ellas arrojó resultados positivos: las empresas informáticas evalúan ahora el 89% de los contenidos señalados en un plazo de 24 horas y retiran el 72% de los contenidos que se consideran constitutivos de incitación ilegal al odio (28).

Más allá de esos tentadores resultados, la ONU, en su informe A/HRC/38/35, señaló que, si bien el fomento de “argumentos contrarios independientes” puede resultar atractivo ante el contenido “extremista” o “terrorista”, la presión para adoptar esos enfoques conlleva el riesgo de transformar las plataformas en transmisores de propaganda más allá de los ámbitos de interés legítimo (29).

Asimismo, el 28/09/2017 la Comisión Europea emitió la comunicación al Parlamento Europeo titulada “Lucha contra el contenido ilícito en línea: Hacia una mayor responsabilidad de las plataformas en línea”, que recoge una serie de principios y directrices para que éstas intensifiquen su lucha contra los contenidos ilícitos en línea, en cooperación con las autoridades nacionales, los Estados miembros y otras partes interesadas. Su objetivo es facilitar y aumentar la aplicación de buenas prácticas en la prevención, detección, retiro o inhabilitación del acceso a contenidos ilícitos, con el fin de garantizar su supresión efectiva y la protección de los derechos fundamentales. Se propone también indagar acerca de las responsabilidades de las plataformas cuando adoptan medidas efectivas para detectar o retirar contenidos ilícitos, o para inhabilitar el acceso a ellos (acciones denominadas “de buen samaritano”) (30).

En cuanto a la responsabilidad de las plataformas, el marco jurídico general para la supresión de contenidos ilícitos aplicable en la UE es la “Directiva sobre el comercio electrónico” (31), que incluye condiciones a las que las plataformas en línea pueden acogerse para la exención de responsabilidad por los contenidos ilícitos que publiquen. En este sentido, su art. 14 establece que, cuando se preste un servicio de la sociedad de la información consistente en almacenar datos facilitados por el destinatario del servicio, el prestador no será considerado responsable de los datos almacenados, a condición de que: a) el prestador de servicios no tenga conocimiento efectivo de que la información es ilícita; y b) en cuanto tenga conocimiento de ello, el prestador actúe con prontitud para retirar los datos o hacer que el acceso a ellos sea imposible.

Por último, resulta insoslayable la referencia al Reglamento General de Protección de Datos Europeo (RGPD), relativo a la protección de las personas físicas en lo que respecta al tratamiento de sus datos personales y a la libre circulación de estos datos (32). Entre sus novedades troncales, esta norma dio lugar a la jerarquización del consentimiento expreso del titular del dato, que debe ser demostrable por el responsable del tratamiento; a la introducción del derecho al olvido y el derecho de portabilidad de datos; así como a la creación de la figura del delegado de protección de datos, que debe ser nombrado en cada organismo público para velar por el cumplimiento del Reglamento (33).

En suma, y como se puede apreciar a simple vista, la prevención de daños ocasionados por la publicación de contenidos agraviantes y/o lesivos en línea y su regulación mediante normas de carácter general ocupan un rol preponderante en la comunidad internacional.


III.2. Casos paradigmáticos

III.2.a. La transmisión vía Facebook del atentado terrorista de Nueva Zelanda: un antes y un después en la agenda internacional.

Sin dudas, la transmisión a través de la red social Facebook del lamentable ataque a dos mezquitas que tuvo lugar el 15/03/2019 en Christchurch, una ciudad situada en la costa este de la Isla Sur de Nueva Zelanda, constituye un hito que podríamos denominar el “a. C./d. C.” en la materia (34). Además, constituye una muestra patente del discurso del odio en formato de video. Este triste hecho reavivó los debates que en esencia se dirigen a responder preguntas como las siguientes: ¿qué se publica en las redes sociales?; ¿quiénes son responsables por ello?; y ¿cómo prevenir hechos similares en un futuro?

Dos meses después del hecho, la primera ministra de Nueva Zelanda, Jacinda Ardern, y el presidente francés, Emmanuel Macron, promovieron una reunión entre variados jefes de Estado y de gobierno y los líderes del sector tecnológico para adoptar la llamada “Christchurch Call” (35), que representa un compromiso de gobiernos y empresas para eliminar el contenido terrorista y extremista violento en línea. El compromiso fue adoptado por 19 países y por 8 destacadas empresas que prestan servicios en línea, entre ellas: Amazon, Google, Twitter y YouTube.

El instrumento se basa en la convicción de que un internet gratuito, abierto y seguro ofrece beneficios extraordinarios a la sociedad. Asevera que, si bien el respeto a la libertad de expresión es fundamental, nadie tiene derecho a crear y compartir contenido terrorista online. Bajo ese lema, “Christchurch Call” es un plan de acción que compromete a las entidades gubernamentales y empresas tecnológicas a un gran abanico de medidas, incluido el desarrollo de herramientas para evitar la carga de contenido terrorista; el incremento en la transparencia en torno a la eliminación y detección de contenido lesivo, y la revisión de algoritmos que dirigen a los usuarios a ese tipo de contenido.

III.2.b. El caso de Cambridge Analytica.

Otro caso de gran impacto internacional fue el que tuvo por operador esencial a la empresa conocida como Cambridge Analytica. Mediante un procedimiento dirigido especialmente a votantes influenciables, que incluyó la obtención ilegítima de datos personales a través de la red social Facebook y una estrategia de marketing personalizada que se valió de noticias falsas para propagar mitos y reforzar prejuicios sobre determinados candidatos y políticas (36), se manipuló la opinión de los electores en distintos países. Se afirma que tales prácticas tuvieron un significativo impacto que pudo haber determinado el resultado de la campaña del Brexit (Reino Unido) (37) y de las elecciones presidenciales de la Argentina (2015) (38) y de los Estados Unidos de América (2016) (39). El informe del Parlamento británico titulado “Disinformation and ‘fake news’” (40) resulta elocuente al respecto.

Como consecuencia de ello, en julio de 2019 se abrió en el Reino Unido la consulta pública volcada en el “Online harms white paper”, que contiene un paquete de medidas para mantener a los usuarios de ese país seguros en línea. El documento propone crear un nuevo deber de cuidado (duty of care) hacia los usuarios, que será supervisado por un ente regulador independiente. Además, establece que las empresas deberán rendir cuentas por un conjunto integral de daños en línea, que van desde actividades y contenidos ilícitos hasta comportamientos que son dañinos, pero no necesariamente ilegales (41).

Entre los importantes organismos, medios de prensa y empresas que emitieron su opinión al respecto (42), se encuentra el Alan Turing Institute, que si bien destacó el loable propósito del documento, sostuvo que quedan aún temáticas por abordar y perfeccionar. Así, criticó la ausencia de una definición clara de daño y de una priorización a su respecto, la carencia de una regulación sobre la migración de contenidos entre plataformas, la poca precisión acerca de qué se considera “desinformar” y sobre la distinción entre contenidos verdaderos y falsos. También propuso que el ente regulador a crearse sea parte de uno de los ya existentes (por ejemplo, del Ofcom o del ICO) (43).

A su vez, cabe mencionar que la histórica multa impuesta a Facebook por la Comisión Federal de Comercio (FTC) en el año 2019, a la que se suma la obligación de recibir inspectores y adoptar reglas para la protección de la privacidad de sus clientes, en gran parte luce como una consecuencia del cuestionable manejo de información sensible que esta red social hizo de los datos de sus usuarios, en el caso bajo estudio (44).

Por lo demás, se advierte que en casos como el de Cambridge Analytica, más allá del perjuicio individual a los votantes, las mayores víctimas suelen ser los sistemas democráticos en sí mismos y, de rebote, las ciudadanías engañadas en su conjunto, que padecerán los efectos de políticas instaladas mediante intervenciones arteras, para las cuales las redes sociales obran como herramienta esencial. De allí el lugar sobresaliente que la regulación de la actividad de estas redes presenta hoy en la agenda internacional.

En este contexto, los Estados realizan denodados esfuerzos por hallar una solución adecuada a esta problemática, pero —claramente— esto no es fácil. El quid de la cuestión radica en determinar cómo prevenir publicaciones lesivas en las redes sociales, alcanzando un delicado equilibrio entre varios derechos fundamentales en pugna, como la libertad de expresión y opinión, el derecho a la información, a la intimidad, a la imagen, etcétera.


IV. Notas sobre la experiencia y respuestas jurídicas locales

IV.1. Normativa relevante.

Existe un abanico de normas no centradas en los fenómenos de las redes sociales, pero que sin duda les resultan aplicables. Más allá de las garantías y los principios reconocidos en la legislación fundamental, en el derecho interno, el Código Penal argentino castiga la violación de comunicaciones electrónicas (art. 153). Por su lado, el Código Civil y Comercial regula especialmente los derechos personalísimos, protegiendo el derecho a la dignidad y a la imagen, entre otros (arts. 52 a 59). La Ley de Defensa del Consumidor (LDC, ley 24.240/1993) también resulta trascendente en la materia, pudiendo considerarse a los usuarios de redes sociales como sujetos amparados por dicha normativa (45).

A su vez, la Argentina cuenta con diversas normas referidas a la protección de datos personales, como la ley 25.326, conocida como Ley de Hábeas Data, y la res. 4/2019 de la Agencia de Acceso a la Información Pública, que brinda criterios orientadores e indicadores de buenas prácticas sobre la materia. Además, en el año 2019 nuestro país suscribió el Convenio 108 para la protección de las personas con respecto al tratamiento automatizado de datos de carácter personal y su Protocolo Adicional. Por lo demás, la ley 26.032, de Servicios de Internet, ya desde su título establece que “la búsqueda, recepción y difusión de información e ideas por medio del servicio de internet se considera comprendida dentro de la garantía constitucional que ampara la libertad de expresión”. Y la ley 27.078 sobre Tecnologías de la Información y las Comunicaciones se ha diseñado con la finalidad de “...garantizar el derecho humano a las comunicaciones y a las telecomunicaciones, reconocer a las [...] TIC como un factor preponderante en la independencia tecnológica y productiva de nuestra Nación, promover el rol del Estado como planificador, incentivando la función social que dichas tecnologías poseen...”, entre otros objetivos (art. 2º).

IV.2. Jurisprudencia.

IV.2.a. Generalidades. Agresiones personales propias del ámbito intrafamiliar.

Los fallos de los tribunales dan cuenta de ciertas conductas que se reiteran. Mayormente se trata de situaciones interpersonales, nacidas en el seno de una pareja o una familia, que devienen públicas por la viralización que propician las redes sociales. Casos de reproducción de videos que hacen a la vida íntima del integrante de una pareja, luego de su ruptura; expresiones ofensivas y humillantes constitutivas de un verdadero acoso virtual, y difusión de imágenes sobre actividades cotidianas y de la vida social de sujetos especialmente protegidos por la ley, como las niñas, niños y adolescentes, son moneda corriente.

Tales situaciones ponen a prueba la imaginación de los jueces, cuyas decisiones —especialmente las de los tribunales de primera instancia— suelen dirigirse a la cesación de daños fluyentes y a la prevención de otros nuevos. Es que los perjuicios en estos casos se dan generalmente en el contexto de situaciones de violencia familiar, donde su cesación prima sobre la idea de libertad de expresión.

Los daños generalmente reconocidos se asocian a los derechos personalísimos y a las tradicionalmente llamadas afecciones del espíritu, además de los que impactan en la psiquis en forma concreta. Se habla así de la afectación de la integridad moral de la mujer, con lesión a los derechos personalísimos del honor y la honra; de factores estresantes que obran como facilitadores de la somatización cutánea (46); de violencia emocional y psicológica con impredecibles consecuencias para la vida de relación (47); y de stress postraumático asociado al miedo y la vergüenza que las agresiones suponen frente a la familia, amigos y hasta superiores jerárquicos (48), entre variados perjuicios donde la exposición pública de la intimidad y la destrucción del respeto ajeno son ejes centrales. En algún caso se reconoció una indemnización por afectación a la dignidad, considerándose dolosa la agresión por cuanto la responsable debió haberse representado el efecto de propagación que los insultos tendrían en las redes, sin que el arrepentimiento tuviera virtualidad para modificar los efectos de tal encuadre (49).

Los decisorios son ricos en figuras pretorianas, calificando a las redes sociales como “vehículos para el acoso social” (50); habilitantes de la “violencia de género digital”, esta última consistente en el uso redes sociales de acceso público para someter a la víctima al control, humillación, vejación y dominación, con daño a su reputación (51).

El encuadre normativo es variado, apelándose fundamentalmente a la Constitución Nacional, a las diversas convenciones de derechos humanos a ella incorporadas con base en su art. 75, inc. 22 (52), y a la legislación interna consagratoria de tal normativa esencial (53). La protección de la identidad de los jóvenes y la prohibición de la publicación que de ella pretenda hacerse se amparan en disposiciones específicas, como las que surgen de las leyes 13.634 y 20.056.

Un aspecto por demás reiterado en la experiencia judicial radica en la batería de medidas que los tribunales diseñan para impedir la continuación de agresiones vía redes sociales. Estas suelen tener destinatarios variados (los agresores, los responsables de las redes sociales y hasta las propias víctimas) y consisten en mandatos de hacer y no hacer, sanciones y protecciones.

En este sentido, y más allá de las medidas clásicas aplicadas ante situaciones de violencia familiar, como la suspensión del régimen de comunicación, la prohibición de acercamiento y la indicación de terapias psicológicas bajo la supervisión de organismos públicos especializados, se imponen a los agresores órdenes de abstención de nuevas publicaciones y a los responsables de las redes, órdenes de eliminación y bloqueo de contenidos y, en su caso, mandatos de cancelación y/o cierre definitivo de las cuentas involucradas, con eliminación de perfiles (54). En algún caso se dictaron órdenes generales de abstención a futuro, referidas a la habilitación del uso de enlaces, blogs, foros, grupos, sitios de fans que injurien, ofendan, agredan, vulneren o menoscaben la intimidad personal de los denunciantes.

Sin embargo, una voz diametralmente opuesta, protectoria de la libertad de expresión, también se ha expresado en la jurisprudencia nacida a partir de las agresiones vertidas en redes sociales con base en relaciones íntimas. Así, por ejemplo, en contra de la opinión de un tribunal de primera instancia, la Alzada revocó la decisión de cese de difusión de un video consistente en un “escrache” y donde se imputaba un abuso sexual, con base en la protección constitucional de la libertad de expresión, aclarándose que ello no obstaba al derecho del afectado a perseguir las responsabilidades civiles y penales subsiguientes a la publicación (55).

IV.2.b. Agresiones personales que exceden el ámbito intrafamiliar.

En cambio, cuando las agresiones trascienden las relaciones cercanas o intrafamiliares e involucran a personas públicas insultadas por un colectivo ajeno, las acciones judiciales consecuentes suelen tener por partes a las víctimas —de un lado— y a los responsables de las redes sociales —de otro—. En esos casos, la apelación a los precedentes de la Corte Suprema, conocidos como “Rodríguez, María Belén” (56) y “Gimbutas” (57), por la doctrina allí sentada, deviene insoslayable.

En este sentido, en el precedente “V., M. V. c. Twitter Inc. s/ acción preventiva de daños” (58), donde se ordenó a la red Twitter la eliminación de todos los dichos y montajes fotográficos que insultaban a la actora, la Cámara afirmó que “...Las peticiones relativas a la actividad desarrollada en las plataformas que brindan las redes sociales deben ser analizadas a la luz de la protección que confiere la libertad de expresión como garantía constitucional y la especial valoración que debe conferírsele a ésta en sociedades democráticas...”, encuadrando la actividad de las redes en el art. 1º de la ley 26.032/2005, en cuanto compete a “...la búsqueda, recepción y difusión de información e ideas de toda índole, a través del servicio de internet...”. Sin embargo, evidentemente en busca de un balance entre tal principio y el resguardo a los derechos personalísimos de la víctima, se ordenó a la red social la eliminación de los dichos y fotomontajes nocivos. En el decisorio comentado se destacó que las reiteradas expresiones de odio hacia la víctima tampoco se ajustaban a las reglas de funcionamiento de la demandada, volviéndose central en la discusión el hecho de quién debía identificar los sitios URL a cuyo respecto se solicitaba el bloqueo, poniéndose finalmente tal carga en las espaldas de la damnificada.

IV.2.c. Noticias sobre otras sentencias trascendentes en torno a la transmisión digital de información sensible.

Cabe finalmente comentar algunos fallos que, si bien exceden la cuestión de las agresiones en redes sociales, proponen doctrinas de interés para estas. En este sentido, en la causa “Torres Abad c. Jefatura de Gabinete” (59) se discutió acerca de la facultad que tenía la ANSeS para ceder a terceros (60) los números de teléfono móvil de las personas que figuraban en su base de datos, a pesar de no contar dicho organismo con la autorización expresa de sus titulares.

En la decisión se tuvo en cuenta que tal base de datos no era de acceso irrestricto y que la cesión en cuestión no implicaba el cumplimiento específico de alguna de sus finalidades. Pero, además, fundamentalmente se interpretó en forma estricta y taxativa el art. 5º, inc. 2º, ley 25.326, en cuanto enuncia las excepciones al consentimiento expreso requerido para el tratamiento de los datos personales, denegándose la facultad de cesión pretendida por el citado órgano estatal.

Por su parte, en autos “Instituto Patria c. IGJ” (61), frente al balance presentado por la asociación civil del que surgía el aporte de cada asociado, el organismo de contralor requirió el listado de aportantes, arguyendo la necesidad de corroborar la veracidad de la información presentada. Se opuso a ello el Instituto, identificado con el partido opositor al de la Administración gobernante, argumentando que la información solicitada correspondía a datos sensibles de sus afiliados.

El tribunal sostuvo que la asociación actora tenía una clara filiación política que no podía ser desconocida y que la razón esencial de la prohibición de recolectar datos sensibles era el potencial discriminatorio de su divulgación fuera del ámbito de la intimidad. Aclaró que la exigencia de la IGJ se encontraba limitada por la ley 25.326, ya que “aun cuando un dato pueda ser considerado neutro, como podrían ser los datos nominativos de la lista de asociados [...], al ser utilizados se convierten en un elemento provocador de la intimidad o privacidad de la persona”. Además, agregó que la revelación requerida lesionaría derechos constitucionales como el derecho a la intimidad y la privacidad, a la no discriminación, a la libertad de conciencia y el derecho de asociarse libremente con fines ideológicos (arts. 14, 16 y 19 de la CN). Por ello, con buen criterio, la Cámara hizo lugar a los agravios planteados y revocó la resolución impugnada, concluyendo que se había demostrado una arbitrariedad administrativa y que divulgar la identificación de los asociados supondría un grave y evidente perjuicio a aquellos (62).

Los citados precedentes interesan al tema de este trabajo, en tanto, según hemos visto, la captación de información sensible sin consentimiento de sus titulares propicia formas de manipulación de la voluntad, que la ley pretende evitar. Ese tipo de manipulación fue ya ensayada y potenciada por la acción de redes sociales, en la experiencia internacional. Y la doctrina judicial citada precisó los alcances de la protección de los datos sensibles al circunstanciarlos, aportando elementos valiosos para futuras actualizaciones de la normativa aplicable.


V. Notas sobre la inteligencia artificial aplicada a las redes sociales.

Se ha definido a la inteligencia artificial como la disciplina que estudia y desarrolla artefactos operativos que exhiben propiedades de autonomía, interoperabilidad y que pueden aprender de esas interacciones (63). Aquélla opera mediante algoritmos, es decir, una secuencia de pasos lógicos (como si fuera una receta de cocina) que arribarán a una predicción basada en la gran cantidad de datos con la que se entrena al sistema (64).

De tales propiedades, la interoperabilidad o conectividad y la capacidad de actualización o aprendizaje son propias de las computadoras y propician un tipo de interpretación y una velocidad de actuación imposibles para un ser humano. Es así que la utilización de la IA para detectar contenido lesivo en las redes sociales se presenta como la herramienta más idónea frente a la innumerable cantidad de datos que allí se comparten.

Sin embargo, el uso de algoritmos puede acarrear diversos problemas, entre los que se destacan los sesgos de discriminación. Una reciente investigación demostró que los sistemas de inteligencia artificial destinados a detectar contenido online lesivo tienen muchas más probabilidades de etiquetar los tweets como “ofensivos” si fueron publicados por personas que se identifican como afroamericanas (65).

A su vez, redes sociales como Instagram estarían ensayando la eliminación automática de lenguaje ofensivo mediante IA, concretamente, por medio del uso de un filtro de comentarios mejorado que aplicaría machine learning para detectar palabras y frases humillantes en contextos difíciles (66). Sin embargo, ¿qué o quién determina que una frase es ofensiva?; ¿en qué contexto y en qué cultura? Se sostiene además que la aplicación de este tipo de técnicas puede significar el silenciamiento de las voces de las minorías.

Por lo demás, la rapidez y el amplio alcance de cualquier decisión tomada por mecanismos de inteligencia artificial pueden significar daños dramáticamente extensos.

De otro lado, en varios países se estaría comenzando a usar IA para prevenir casos de bullying en redes. Así, por ejemplo, en la ciudad nipona de Otsu se habría creado un algoritmo que sería entrenado con miles de datos sobre casos pasados de bullying. Este examinaría —entre otros factores— el género y la edad de las presuntas víctimas y de los perpetradores, el lugar y la fecha de los hechos y el ausentismo de alumnos y profesores, para identificar formas de bullying que requieran una atención particular (67). Pero esos miles de datos provendrían de Internet y de las propias redes, pudiendo uno preguntarse: ¿a quién pertenecen esos datos?; ¿podrá utilizarse sin más la información sensible a estos fines?


VI. Palabras finales

A modo de cierre, cabe volver sobre el objetivo inicial de este trabajo: reflexionar provisoriamente sobre la prevención de daños derivados de la violencia ejercida en las redes sociales, luego de un recorrido sobre la experiencia habida, que reflejó no sólo hechos paradigmáticos de la realidad, sino normas generales, políticas públicas, prácticas empresarias y fallos de jurisprudencia sobre la materia.

Según pensamos, hay aquí un tema para el cual la tradicional solución casuística de conflictos de primera elección, tan propia de nuestra cultura, que es la sentencia judicial, luce insuficiente. En efecto, la función preventiva de la responsabilidad civil traducida en múltiples acciones judiciales preventivas (arts. 1711-1713, Cód. Civ. y Com.) podrá alimentar a nuestra extensa clase de profesionales del derecho y dar lugar a valiosos argumentos para prevenir daños futuros, pero seguramente llegará tarde para evitar o minimizar las expresiones más graves de violencia en las redes sociales. En esta línea, a nivel internacional, y según hemos visto, se ha recomendado adoptar modelos de regulación en los que sean los organismos gubernamentales, y no los judiciales, quienes se erijan en árbitros de lo que es una expresión legítima (68).

Por lo expuesto, proponemos la elaboración de protocolos de actuación y de algoritmos adaptados a nuestra cultura y sistema jurídico, debidamente revisados y entrenados, donde la última palabra recaiga sobre un humano, como primera herramienta necesaria para la prevención bajo análisis. Resultará a su vez insoslayable la imposición de un fluido y atento control experto de organismos estatales especializados (responsables de comunicación y nuevas tecnologías, defensores del público de servicios de comunicación o afines) sobre aquellas herramientas diseñadas por las empresas operadoras de redes sociales, y deseable algún tipo de participación ciudadana durante su curso.

Todo ello como verdadera expresión de lo más esencial de la función preventiva de la responsabilidad civil, cuyo contenido surge del art. 1710 del Código unificado. Y sólo como último recurso, pero de interés para situaciones no resueltas por los mecanismos preventivos descriptos, como, asimismo, para determinar la reparación de los daños causados, debiera reservarse la acción de los tribunales.


Cita on line: AR/DOC/199/2020


MÁS INFORMACIÓN

Vaninetti, Hugo A., “Twitter. Contenidos que generan daño. El rol de los influencers. El impacto del twibel, los retuits y el ‘escrache’ o linchamiento virtual”, LA LEY, 2019-F, 162; AR/DOC/3460/2019; “Facebook y la soberanía jurisdiccional. Defensa de los derechos del niño a su imagen, intimidad e integridad”, LA LEY, 2019-D, 255; AR/ DOC/1997/2019.

Sanjuan, Alejandro, “Violencia de género digital. Modalidad de violencia contra las mujeres a través de las redes sociales y de las nuevas tecnologías de comunicación”, RDF; 2019-V, 261; AR/ DOC/2676/2019.


LIBRO RECOMENDADO

Tratado de Derecho Procesal Electrónico - 2º Edición Director: Camps, Carlos E. Editorial: Abeledo Perrot, 2019.


NOTAS:

Especial para La Ley. Derechos reservados (Ley 11.723)

(*) Profesora titular de Obligaciones Civiles y Comerciales, Facultad de Derecho, UBA.

(**) Profesora de la Facultad de Derecho, UBA, en la asignatura IA y Derecho. Doctoranda de la Universidad de Perugia (Italia).

(***) El presente trabajo fue realizado en el marco del proyecto de investigación 20020170200322BA para la Universidad de Buenos Aires Ciencia y Técnica —UBACyT—, programación 2018-2020, y contó con las reflexiones y comentarios de Silvia Ramos, Lic. en Análisis de Sistemas y profesora adjunta de la Facultad de Ingeniería, UBA.

(1) ABOSO, Gustavo E., “Stalking y cyberstalking: El dominio de la víctima mediante terror psicológico como nueva expresión de atentado contra la libertad personal”, elDial.com.

(2) Puede verse al respecto la publicación oficial sobre “Acoso por internet”, disponible al 28/09/2019 en https://www.argentina.gob.ar/justiciacerca/acosointernet.

(3) COLUCCIA, Ana - PARMA, Carlos - FERRETTI, Fabio - POZZA, Andrea, “Il bullismo”, elDial.com, con cita de BLAYA, C., “Il bullismo nella scuola: Prevalenza, fattori di rischio ed interventi. Cittadini in crescita”, Rivista Internazionale di Documentazione ed Analisi per l’Infanzia e l’Adolescenza, Istituto degli Innocenti, Florencia, 2007.

(4) Id. nota anterior.

(5) Texto conf. ley 26.904.

(6) Tecnologías de la información y comunicación.

(7) Puede verse una más detallada descripción de este concepto en AGÜERO ITURBE, José L., “El ciberacoso de menores”, elDial.com.

(8) BUOMPADRE, Jorge E., “Sexting, pornovenganza, sextorsion... ¿o qué? A propósito de un proyecto legislativo tendiente a castigar la difusión de imágenes no consentidas de desnudez o videos de contenido sexual”, elDial.com.

(9) De hecho, el Senado de la Nación dio media sanción a un proyecto de ley por medio del cual se penaliza la “publicación y/o difusión de imágenes no consentidas de desnudez total o parcial y/o videos de contenido sexual o erótico de personas”, mediante la inclusión del art. 155 del Cód. Penal, conf. S-21119/16, presentado por las senadoras Marina R. Riofrio, Beatriz G. Mirkin y Norma H. Durango.

(10) MOSER, Delfina, “El costo de la libertad de expresión”, elDial.com.

(11) MOSER, Delfina, “El costo...”, ob. cit.

(12) International Criminal Tribunal for Rwanda (ICTR), 02/12/2008, “The Prosecutor vs. Simon Bikindi” (judgment), ICTR-01-72-T, disponible al 20/12/2019 en https://www.refworld.org/cases,ICTR,493524762.html.

(13) Se estima que un 70% de este grupo humano —entre 500.000 y 1.000.000— fueron masacrados entre el 07/04 y el 15/07/1994 por los hutus, otro subgrupo del mismo pueblo.

(14) A/HRC/38/35, del 06/04/2018, disponible al 18/08/2019 en https://undocs.org/sp/A/HRC/38/35.

(15) Conf. art. 19, párr. 3º, del Pacto Internacional de Derechos Civiles y Políticos.

(16) Legalidad: las restricciones deben estar “previstas en la ley” y, en particular, deben ser aprobadas por los procedimientos jurídicos ordinarios y limitar la discrecionalidad del gobierno.

(17) Necesidad y proporcionalidad: los Estados deben demostrar que con la restricción se impone la menor carga posible al ejercicio del derecho y se protege, o es probable que se proteja, el interés legítimo del Estado en cuestión.

(18) Legitimidad: para que una restricción sea legal, debe estar orientada a proteger alguno de los intereses enumerados en el art. 19, párr. 3º: los derechos o la reputación de los demás, la seguridad nacional o el orden público, o la salud o la moral públicas.

(19) ONU, Principios Rectores sobre las Empresas y los Derechos Humanos, disponible al 18/08/2019 en https://www.ohchr.org/documents/publications/guidingprinciplesbusinesshr_sp.pdf.

(20) Ello, de conformidad con las debidas garantías procesales y las normas establecidas de legalidad, necesidad y legitimidad.

(21) “Informe del relator especial sobre la promoción y protección del derecho a la libertad de opinión y de expresión” de las Naciones Unidas del 29/08/2018, disponible al 18/08/2019 en https://undocs.org/ es/A/73/348.

(22) Como el derecho a la libertad de opinión, el derecho a la libertad de expresión, el derecho a la privacidad, la obligación de no discriminar y el derecho a un recurso efectivo.

(23) Resulta esencial, conforme al respeto por los derechos humanos, dar aviso a los usuarios cuando: son objeto de un proceso de adopción de decisiones basado en IA; ésta es utilizada para la moderación del contenido; y sus datos personales pueden integrarse en un conjunto de datos que se usará para entrenar sistemas de IA.

(24) Council Framework Decision 2008/913/JHA, 28/11/2008, on combating certain forms and expressions of racism and xenophobia by means of criminal law, disponible al 13/12/2019 en https://eur-lex.europa.eu/eli/ dec_framw/2008/913/oj.

(25) “Decisión marco relativa a la lucha contra determinadas formas y manifestaciones del racismo y la xenofobia mediante el derecho penal”, disponible al 19/08/2019 en https://eur-lex.europa.eu/legal-content/ ES/TXT/HTML/?uri=LEGISSUM:l33178&from=ES.

(26) “Countering illegal hate speech online. #NoPlace4Hate”, disponible al 19/08/2019 en https:// ec.europa.eu/newsroom/just/item-detail.cfm?item_ id=54300. Asimismo, ver “Code of Conduct. Illegal online hate speech: Questions and answers”, junio/2016, disponible al 19/08/2019 en https://ec.europa.eu/info/ sites/info/files/code_of_conduct_hate_speech_en.pdf.

(27) “Code of Conduct on countering illegal hate speech online: First results on implementation”, diciembre/2016, disponible al 19/08/2019 en http:// ec.europa.eu/information_society/newsroom/image/document/2016-50/factsheet-code-conduct-8_40573.pdf; y “Code of Conduct on countering online hate speech: results of evaluation show important progress”, del 01/06/2017, disponible al 19/08/2019 en https:// ec.europa.eu/newsroom/just/item-detail.cfm?item_ id=71674.

(28) Comunicado de prensa de la Comisión Europea, “Lucha contra la incitación ilegal al odio en línea: el Código de conducta de la UE garantiza una rápida respuesta”, del 04/02/2019, disponible al 19/08/2019 en https://europa.eu/rapid/press-release_IP-19-805_es.htm.

(29) ONU, informe A/HRC/38/35 del 06/04/2018, disponible al 19/08/2019 en https://undocs.org/sp/A/ HRC/38/35.

(30) Comunicación de la Comisión al Parlamento Europeo, al Consejo, al Comité Económico y Social Europeo y al Comité de las Regiones, “Lucha contra el contenido ilícito en línea. Hacia una mayor responsabilización de las plataformas en línea”, disponible al 19/08/2019 en https://ec.europa.eu/transparency/ regdoc.rep/1/2017/ES/COM-2017-555-F1-ES-MAINPART-1.PDF.

(31) Directiva 2000/31/CE del Parlamento Europeo y del Consejo (08/06/2000), relativa a determinados aspectos jurídicos de los servicios de la sociedad de la información, en particular el comercio electrónico en el mercado interior (llamada “Directiva sobre el comercio electrónico”), disponible al 19/08/2019 en https://www.wipo.int/edocs/lexdocs/laws/es/eu/ eu107es.pdf.

(32) UE 2016/679, en vigor desde el 25/05/2018.

(33) FALIERO, Johanna C., “El futuro de la regulación en protección de datos personales en la Argentina”, en Legal Tech. Derecho ante la Tecnología, Ed. La Ley, Buenos Aires, 2018, p. 59.

(34) El video que mostraba la masacre se viralizó en cuestión de segundos, por lo que Facebook, YouTube y otras plataformas tuvieron que desplegar sus esfuerzos para eliminar la mayor cantidad de copias en el menor tiempo posible y, con ello, evitar la propagación del daño. Véase “Facebook says it has removed 1.5 million copies of the New Zealand terror attack video”, MIT Technology Review, marzo/2018, disponible al 19/08/2019 en https://www.technologyreview. com/f/613133/facebook-says-it-has-removed-15-millioncopies-of-the-new-zealand-terror-attack/.

(35) Disponible en https://www.christchurchcall. com/, el 13/12/2019.

(36) Ver, p. ej., “Cómo operó Cambridge Analytica en el Brexit: la otra elección manipulada con los datos de Facebook”, disponible al 13/12/2019 en https://www. infobae.com/america/mundo/2018/04/01/como-operocambridge-analytica-en-el-brexit-la-otra-eleccion-manipulada-con-los-datos-de-facebook/.

(37) https://www.parliament.uk/business/committees/committees-a-z/commons-select/digital-culturemedia-and-sport-committee/news/fake-news-briantevidence-17-19/?fbclid=IwAR33_IVXmlIceHaQa2d9NrZpZTcD46CoNZ0-NXiFCqZAuF1z1uPCCD7FoY, disponible al 13/12/2019.

(38) Ver ap. 219, en https://publications.parliament. uk/pa/cm201719/cmselect/cmcumeds/363/36309.htm, disponible al 13/12/2019.

(39) Las estrategias empleadas fueron denominadas por algunos como “estrategias militares”, situación que terminó en un litigio judicial y llevó a Mark Zuckerberg y exempleados de Cambridge Analytica a dar explicaciones en el Parlamento británico. Al respecto, ver “How Trump consultants exploited the Facebook data of millions”, The New York Times del 17/03/2018, disponible al 19/08/2019 en https://www.nytimes. com/2018/03/17/us/politics cambridge-analytica-trumpcampaign.html; The Guardian (archivo Cambridge Analytica), disponible al 19/08/2019 en https://www. theguardian.com/news/series/cambridge-analytica-files, y “Nada es privado”, película disponible en Netflix.

(40) Conf. “SCL influence in foreign elections”, disponible al 13/09/2019 en https://publications.parliament.uk/pa/cm201719/cmselect/cmcumeds/363/36309. htm.

(41) The “Online harms white paper”, disponible al 19/08/2019 en https://www.gov.uk/government/consultations/online-harms-white-paper.

(42) “Online harms white paper: could regulation kill innovation?”, The Guardian del 04/04/2019, disponible al 27/08/2019 en https://www.theguardian.com/ technology/2019/apr/04/online-harms-white-paper-regulation-without-killing-innovation.

(43) “Response of The Alan Turing Institute’s Public Policy Programme to the Department for Digital, Culture, Media & Sport and the Home Office’s Online harms white paper”, disponible al 19/08/2019 en https://www.turing.ac.uk/sites/default/files/2019-07/ response_of_the_public_policy_programme_to_the_ dcms_and_the_home_offices_online_harms_white_paper.pdf.

(44) Conf. https://www.vox.com/reco - de/2019/07/24/20708359/facebook-ftc-settlement-criticism-5-billion-privacy-review-antitrust-mark-zuckerberg.

(45) En este sentido, puede verse WIERZBA, Sandra M. — BRODSKY, Jonathan — LÓPEZ, Noelia, “Redes sociales y derechos del consumidor: ¿Cuán real es la protección en el mundo virtual?”, en Responsabilidades especiales. Homenaje al Dr. Oscar J. Ameal, Ed. Erreius, Buenos Aires, 2016, ps. 287-305.

(46) Juzg. Familia Nº 5 Cipolletti, 07/05/2018, “P. M. B. s/ incidente denuncia por violencia de género (ley 26.485)”, sentencia no firme, AR/JUR/18104/2018.

(47) Juzg. Paz Letrado Villa Gesell, 10/08/2018, “T. N. R. c. M. M. A. y C. A. F. s/ medida de no innovar y protección contra la violencia familiar”, sentencia no firme, AR/JUR/89888/2018, 02/11/2018.

(48) TFamilia Formosa, “T. A. E. c. L. C. M. s/ violencia familiar”, del 17/02/2017, sentencia firme, AR/JUR/2393/2017, .

(49) CCiv. y Com. 1ª Nom. Córdoba, “S., D. A. c. C., B. M. - ordinario - daños y perj. - otras formas de respons. extracontractual” del 28/05/2019, AR/ JUR/26503/2019.

(50) Conf. “T. N. R. c. M. M. A.”, cit., con referencia de TOMEO, Fernando, “El impacto de las redes sociales... año 2011”, LA LEY, Supl. Actualidad del 03/05/2012, 2; AR/DOC/1992/2012.

(51) “P. M. B. s/ incidente denuncia por violencia de género (ley 26.485)”.

(52) Declaración Universal de Derechos Humanos (art. 2º); Convención sobre los Derechos del Niño (art. 16); Declaración Americana de los Derechos del Hombre (art. V); Pacto de San José de Costa Rica (art. 11); Pacto Internacional de Derechos Civiles y Políticos (art. 17); Convención de Belén do Pará o Convención Interamericana para Prevenir, Sancionar y Erradicar la Violencia contra la Mujer (1994).

(53) Ley 26.061, arts. 6º y 9º; Cód. Civ. y Com., arts. 51 a 53, y ley 26.485, entre otras.

(54) “P. M. B. s/ incidente denuncia por violencia de género (ley 26.485)”, “T. N. R. c. M. M. A. y C. A. F. s/ medida de no innovar y protección contra la violencia familiar”, y “T. A. E. c. L. C. M. s/ violencia familiar”, cits.

(55) CCiv., Com., Laboral y Minería Neuquén, sala II, “L. L. A. s/ situación ley 2212”, del 30/10/2018, AR/ JUR/58880/2018.

(56) CS, “Rodríguez, María Belén c. Google Inc. y otro s/ daños y perjuicios” del 28/10/2014, Fallos 337:1174.

(57) CS, “Gimbutas, Carolina V. c. Google Inc. s/ daños y perjuicios” del 12/09/2017, Fallos 340:1236.

(58) CNFed. Civ. y Com., sala II, 22/12/2017, AR/ JUR/94674/2017, “V., M. V. c/Twitter s/acción prov. de un daño”.

(59) CNFed. Cont. Adm., sala V, 03/07/2018, “T. A., C. c. EN - JGM s/ hábeas data”, AR/JUR/28394/2018.

(60) Concretamente, a la Secretaría de Comunicación Pública dependiente de la Presidencia de la Nación, con la cual se había firmado un convenio de remisión periódica de datos.

(61) 24/05/2018, “Instituto Patria Pensamiento Acción y Trabajo para la Inclusión Americana Asociación Civil c. IGJ 1899459/7544628/7734718/921/922 s/ recurso directo a Cámara”, AR/JUR/22798/2018.

(62) Puede verse también un análisis de estos precedentes en PAGLIUCA, Fernando E., “El uso de datos personales en internet”, Revista de Responsabilidad Civil y Seguros, 2019-X, Ed. La Ley, p. 63, disponible al 09/01/2020 en https://www.ented.net/post/el-uso-dedatos-personales-en-internet.

(63) Virginia Dignum, directora ejecutiva del Centro Universitario de Delft en Diseño de Valores, en https://ec.europa.eu/epsc.events/high-level-hearing-european-union-strategy-artificial-intelligence_en, disponible al 20/12/2019.

(64) DANESI, Cecilia C., “Inteligencia artificial y responsabilidad civil: un enfoque en materia de vehículos autónomos”, LA LEY, Supl. Esp.: “Legal Tech”, noviembre/2018, p. 39, AR/DOC/2374/2018; y DANESI, Cecilia C. - MITELLI, Noelia, “Asistentes jurídicos digitales: el impacto de la inteligencia artificial en el proceso”, Ed. Erreius, Supl. Esp.: “Derecho, tecnología e innovación”, diciembre/2019.

(65) SAP, Maarten — CARD, Dallas — GABRIEL, Saadia — CHOI, Yejin — SMITH, Noah A. — ALLEN, Paul G., “The risk of racial bias in hate speech detection”, Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, ps. 1668-78, Florencia, 28/07 al 02/08/2019, disponible al 19/08/2019 en https://homes.cs.washington. edu/~msap/pdfs/sap2019risk.pdf?utm_campaign=the_ download.unpaid.engagement&utm_source=hs_ email&utm_medium=email&utm_content=75630474&_ hsenc=p2ANqtz-9EFO1zozENksENdWJ41x2tAweJuu5ajyrMgyY_U5MZxfG5CvQ_1zIDBxSVB99zOr_ mgVGM6rHq48X6WkiugzdeuNWHg&_hsmi=75630474. “Google’s algorithm for detecting hate speech is racially biased”, MIT Technology Review del 13/08/2019, disponible al 19/08/2019 en https://www.technologyreview.com/f/614144/googles-algorithm-for-detectinghate-speech-looks-racially-biased/?utm_campaign=the_ download.unpaid.engagement&utm_source=hs_ email&utm_medium=email&utm_content=75630474&_ hsenc=p2ANqtz-9EFO1zozENksENdWJ41x2tAweJuu5ajyrMgyY_U5MZxfG5CvQ_1zIDBxSVB99zOr_ mgVGM6rHq48X6WkiugzdeuNWHg&_hsmi=75630474.

(66) https://computerhoy.com/noticias/tecnologia/ instagram-utilizara-ia-detectar-bullying-fotos-312961, disponible al 20/02/2019.

(67) https://blogthinkbig.com/japon-utilizaran-ia-predecir-casos-bullying-escuela, disponible al 20/02/2019.

(68) Conf. “Primer informe del relator especial de la ONU sobre la promoción y protección del derecho a la libertad de opinión y de expresión”, cit.

ENTED

Exploratorio de Nuevas Tecnologías, Educación y Derecho

Contáctanos
  • Facebook Basic Black
  • Twitter Basic Black
  • Instagram Basic Black

© 2019 por ENTED.