Violencia en las redes sociales

En el presente artículo publicado en la revista “La Ley” del mes de febrero de 2020, las Dras. Sandra M Weirzba y Cecilia C. Danesi reflexionan sobre una solución preventiva para una problemática actual que afecta derechos personalísimos y que se refleja en nuestro día a día: la violencia en las redes sociales. Las autoras proponen el uso de la Inteligencia Artificial para la detección de contenido lesivo en medios digitales, a través de protocolos de actuación y de algoritmos adaptados a nuestra cultura y sistema jurídico.


A continuación, los invitamos a leer el artículo completo:








Violencia en las redes sociales ¿Acciones judiciales o normas y algoritmos como clave para la prevención?


Sandra M. Wierzba (*) y Cecilia C. Danesi (**)


SUMARIO: I. Introducción.— II. Algunas definiciones.— III. Experiencia y normativa comparada.— IV. Notas sobre la experiencia y respuestas jurídicas locales.— V. Notas sobre la inteligencia artificial aplicada a las redes sociales.— VI. Palabras finales.


La interoperabilidad o conectividad y la capacidad de actualización o aprendizaje son propias de las computadoras y propician un tipo de interpretación y una velocidad de actuación imposibles para un ser humano. Es así que la utilización de la IA para detectar contenido lesivo en las redes sociales se presenta como la herramienta más idónea frente a la innumerable cantidad de datos que allí se comparten.


I. Introducción (***)

En los últimos años, nos hemos venido acostumbrando a noticias que dan cuenta de que las redes sociales, más allá de ser un medio excelente para el encuentro y la comunicación entre personas, operan como un sitio adecuado para la agresión pública. Estas plataformas participativas y dinámicas devienen funcionales a cierto tipo de ataques perjudiciales para la dignidad y la honra de los individuos, que se ven favorecidos por factores como la facilidad en la construcción de publicaciones infamantes, la velocidad y los alcances de su difusión y el potencial anonimato de los responsables.

Las agresiones en las redes suelen recaer indirectamente sobre los cuerpos y bienes, y directamente sobre los llamados derechos personalísimos. En ocasiones son lo suficientemente graves como para habilitar la destrucción o degradación de las vidas de sus víctimas, causando una especie de “muerte” o “incapacidad” propia del siglo XXI. En otros casos, la violencia tiene por objetivo la alteración de la forma de vivir de extensos colectivos humanos, expresándose dramáticamente a través del discurso del odio o mediante noticias falsas tendientes a dirigir la voluntad de los individuos en la toma de decisiones esenciales para su futuro.

Los ciudadanos reclamamos protección y reglas claras, mientras los Estados y sus sistemas jurídicos asisten a este escenario muchas veces con perplejidad, diseñando soluciones con base en criterios de “ensayo y error”, ante una tecnología que se escurre entre los preceptos jurídicos tradicionales.

Y, como reflejo de culturas diversas, van apareciendo en el mundo reglas y prácticas que tienden a encauzar el fenómeno mencionado. El objetivo de este trabajo es hacer un breve recorrido sobre la experiencia habida y reflexionar provisoriamente sobre la prevención de daños en la materia.


II. Algunas definiciones.

Las agresiones en medios digitales se asocian a situaciones que en muchos casos cuentan ya con autonomía conceptual y se expresan generalmente en anglicismos asociados a ciertos fenómenos tecnológicos, que con el tiempo devienen figuras típicas penales y son especialmente estudiados por el derecho criminal.

Al acoso u hostigamiento cibernético en general se lo ha emparentado con el concepto de cyberstalking, donde lo característico es que el autor no se limita al uso de frases de naturaleza amedrentadora, sino que actúa de un modo sistemático para restringir la capacidad de decisión de la víctima (1).

Por su parte, y más específicamente, el cyberbullying se ha definido como “el maltrato que sufre un menor de edad por parte de otro menor de edad a través de internet u otros medios electrónicos” (2). Los más jóvenes son acechados y humillados por pares a través de diversos medios tecnológicos, donde las redes sociales son centrales, generándose problemas de adaptación social y educativa, gran angustia y miedo; en casos extremos, hasta suicidios. Estas prácticas tienen especial incidencia en el ámbito escolar y ha aparecido allí una nueva forma de acoso consistente en filmar a alguien sin su conocimiento o insultarlo a través del teléfono móvil, o difundir calumnias a través de blogs y chats. Un aspecto que hace que este tipo de intimidación sea aún más dañina es que la víctima no tiene forma de escapar, recibiendo mensajes en forma continua. En efecto, a diferencia de lo que ocurre en la intimidación tradicional, en este caso el damnificado se encuentra frente a un público más amplio e imposibilitado de identificar al agresor como para poder detener el proceso (3).

A su vez, se define al grooming como “el acoso sexual hecho por un adulto a un niño, niña o adolescente por medio de internet o u otros medios electrónicos” (4). Esta figura ha sido ya incorporada a una norma penal, que castiga con “...prisión de seis [6] meses a cuatro [4] años el que, por medio de comunicaciones electrónicas, telecomunicaciones o cualquier otra tecnología de transmisión de datos, contactare a una persona menor de edad, con el propósito de cometer cualquier delito contra la integridad sexual de la misma” (conf. art. 131 del Cód. Penal) (5). En este supuesto son adultos pederastas quienes a través de engaños contactan a personas menores de edad, procurando obtener imágenes eróticas suyas, con posterior extorsión, amenazas y exigencias de encuentros presenciales que en ocasiones terminan en una violación. Y si bien la figura encierra un fenómeno criminológico preexistente a las nuevas tecnologías, en cuanto en esencia consiste en un conjunto de acciones desplegadas por un adulto para generar una relación de confianza tendiente a lograr un contacto sexual con un joven, lo cierto es que las TIC (6) le imprimen una mayor potencialidad para alcanzar el fin ilegítimo. Cabe así afirmar que el grooming consiste en un acto preparatorio de carácter virtual, previo a un tipo de abuso de carácter corporal, tipificado en la ley (7).

Por su parte, el sexting compromete situaciones donde se produce el envío de imágenes de cuerpos desnudos o semidesnudos o de videos de contenido sexual a través de las tecnologías de la información, y por cierto constituyen una práctica frecuente en permanente crecimiento y en ocasiones comienzan como una travesura, para terminar cambiando la vida de una persona (8). Más allá del impacto de estos materiales en el universo cercano de los jóvenes, se sabe que las imágenes son recopiladas en portales de adultos y luego expuestas en diversas páginas pornográficas de todo el mundo. A su respecto, han existido iniciativas legislativas concretas para el castigo penal (9).

Pero también existen situaciones donde la violencia ejercida en las redes no se dirige a una o algunas personas, sino a colectivos discriminados en razón de su nacionalidad, religión, ideología, sexo u otras condiciones. En este sentido, cabe recordar que el art. 13 de la Convención Americana de Derechos Humanos, referido a la libertad de pensamiento y de expresión, prohíbe “...toda apología del odio nacional, racial o religioso que constituyan incitaciones a la violencia o cualquier otra acción ilegal similar contra cualquier persona o grupo de personas...”, por cualquier motivo, “...inclusive los de raza, color, religión, idioma u origen nacional” (inc. 5º). Estas conductas, asociadas al concepto conocido como “discurso del odio”, juegan un papel fundamental en la perpetuación de estereotipos discriminatorios y la estigmatización de colectivos, constituyendo un mecanismo de importancia fundamental en la deshumanización de ciertos grupos humanos, a los que se trata de negar su pertenencia a la ciudadanía en condiciones de igualdad. Mediante su proliferación y aceptación, se produce una reducción de empatía hacia los colectivos deshumanizados, pudiendo luego justificarse actos violentos de diversa naturaleza. El mundo online les ha garantizado una nueva forma de reproducción, donde se convierten en un fenómeno descontrolado con un potencial de daño aún mayor (10).

Y aunque no se pueda establecer con carácter general una conexión directa entre la proliferación del discurso de odio y los crímenes violentos de odio, cada vez hay una conciencia más clara del vínculo indirecto entre ambos fenómenos (11). La condena impuesta por el Tribunal Internacional Penal que juzgó a los responsables del genocidio de Ruanda (2008) (12) y al reconocido músico popular Simon Bikindi, quien mediante sus canciones incitó al odio a los tutsis, luego masacrados (13), resulta paradigmática y demostrativa de aquella conexión. También puede considerarse una agresión lesiva de colectivos por cierto relevantes la utilización de las redes sociales para la obtención de información sensible, con posterior distribución de propaganda personalizada —incluyendo noticias falsas o fake news—, con el fin de manipular elecciones gubernamentales u otras decisiones políticas trascendentes. Y si bien el manejo de la opinión de los ciudadanos con fines electorales hace a una práctica con raigambre histórica y cultural en variadas latitudes, el uso de las redes sociales dota a tan cuestionable mecanismo de un cariz exquisito, en tanto permite detectar valores, emociones y condicionamientos individuales e íntimos de usuarios desprevenidos de servicios digitales, para obtener finalidades que en muchos casos contrarían sus intereses y los propios de los sistemas democráticos de gobierno.

Ahora bien, el precedente catálogo de figuras y prácticas constituye sólo un botón de muestra de las variadas situaciones y categorizaciones propias de la violencia que explosiona en el entorno digital. Su descripción resulta meramente introductoria y enunciativa para este trabajo, que pretende agregar una mirada propia del derecho de daños a las variadas agresiones que inundan las redes sociales.


III. Experiencia y normativa comparada

III.1. Ensayos normativos: las medidas de la ONU y la Unión Europea. Notas sobre las prácticas y regulaciones empresarias.

La preocupación acerca del contenido que se publica en las redes sociales es —sin dudas— una temática que viene ocupando la agenda internacional. Los ejes centrales vinculados al derecho son principalmente dos: por un lado, la posible afectación a los derechos humanos, lo que incluye el difícil equilibrio entre la libertad de expresión, el acceso a la información y, consecuentemente, evitar la censura previa. Y, por el otro, la responsabilidad de las empresas por las publicaciones agraviantes.

El “Primer informe del relator especial de la ONU sobre la promoción y protección del derecho a la libertad de opinión y de expresión” (14) constituye indiscutiblemente un interesante documento sobre la materia, que aborda la cuestión de la regulación del contenido “en línea” generado por los usuarios, a través de recomendaciones a los Estados y a las empresas operadoras de redes sociales. En su Introducción se describe con acierto la situación actual. Así, se señala que, a pesar de haber adoptado medidas para hacer más transparentes sus normas y su relación con los gobiernos, las empresas siguen siendo unos reguladores enigmáticos, que establecen una especie de “ley de las plataformas” en la que es difícil percibir cuestiones como la claridad, la rendición de cuentas y los mecanismos de reparación. Las Naciones Unidas, las organizaciones regionales y los órganos creados en virtud de los tratados de derechos humanos han afirmado que los derechos fuera de línea se aplican igualmente en línea, pero no siempre está claro que las empresas protejan los derechos de sus usuarios o que los Estados les ofrezcan en las leyes incentivos para hacerlo.

El informe menciona el marco jurídico aplicable a los actores involucrados. En lo que concierne al Estado, refiere que las limitaciones que impongan a la libertad de expresión deben cumplir las siguientes condiciones (15): legalidad (16), necesidad y proporcionalidad (17), y legitimidad (18). En lo que a las empresas respecta, señala que se aplican como guía no vinculante los “Principios rectores sobre las empresas y los derechos humanos” (19), donde se establecen “normas de conducta mundial aplicables a todas las empresas”, que deben regir todas sus operaciones, cualquiera sea el lugar en el que operen.

Otra de las cuestiones relevantes que destaca el informe es que el Estado, motivado por la preocupación de la posible afectación del derecho a la privacidad y a la seguridad nacional, emite normas que entrañan riesgos para la libertad de expresión y ejerce una presión considerable sobre las empresas. Esto puede llevarlas a eliminar —inclusive— contenidos lícitos, en un afán desmedido por evitar la responsabilidad. Además, ello conlleva el riesgo de que aparezcan nuevas formas de censura previa que, a su vez, amenacen los esfuerzos creativos en el contexto de los derechos de autor.

Así, las empresas crean herramientas que les permiten filtrar y eliminar el contenido lesivo, que, debido a los enormes volúmenes de información generada por los usuarios que deben supervisar, resultan de gran valor. Un claro ejemplo son los instrumentos de moderación automatizados, que permiten detectar contenidos ilegales y llaman la atención de los revisores humanos.

También se utilizan herramientas como los filtros de palabras, los algoritmos de comparación criptográfica y el procesamiento del lenguaje natural. Asimismo, se apela a la detección por los usuarios y los detectores fiables. En todos los casos, la evaluación final queda en manos de “equipos de moderadores” que examinan la información y pueden tomar decisiones o, en supuestos dudosos, remiten el examen a los grupos de revisión de la dirección de la empresa. Pero, aun de resultar eficientes estos sistemas, cabe preguntarse cómo operan tales filtros y revisiones a nivel transnacional, especialmente cuando se exportan criterios a idiomas y países distintos a aquellos para los que fueron diseñados.

Además, el problema reposa en que, en cualquiera de esos escenarios, las empresas deciden —a veces en cuestión de segundos— censurar contenidos sin intervención de algún organismo estatal y siguiendo criterios creados por ellas mismas. Como contrapartida, bien podría argumentarse que la demora en la toma de una decisión puede conducir a que la publicación se viralice rápidamente.

En razón de todo ello, el informe concluye que la coyuntura actual exige una mejora radical de la transparencia, una rendición de cuentas genuina y un verdadero compromiso con la reparación. Ello, con el fin de proteger la capacidad de las personas para utilizar las plataformas en línea como foros donde expresarse libremente, acceder a la información y participar en la vida pública. Así, se formula una serie de recomendaciones a los Estados y a las empresas para lograr ese objetivo.

Además, y específicamente con relación a los Estados, se destacan las siguientes recomendaciones: derogar cualquier ley en virtud de la cual se penalice o limite indebidamente la libertad de expresión; restringir los contenidos mediante órdenes dictadas por una autoridad judicial imparcial e independiente (20) y evitar la delegación de la responsabilidad de evaluación de contenidos en las empresas. Asimismo, se aconseja a los Estados abstenerse de imponer sanciones desproporcionadas (dado su importante efecto paralizante sobre la libertad de expresión); promulgar leyes o concertar acuerdos que requieran la vigilancia o el filtrado “activo” del contenido (lo que es incompatible con el derecho a la privacidad y puede ser equivalente a la censura previa a la publicación) y adoptar modelos de regulación en los que sean los organismos gubernamentales, y no las autoridades judiciales, quienes se erijan en los árbitros de lo que es una expresión legítima.

Por su parte, el “Segundo informe del relator especial de la ONU sobre la promoción y protección del derecho a la libertad de opinión y de expresión”, referido a las consecuencias de las tecnologías de inteligencia artificial (IA) para los derechos humanos, se focaliza en los derechos a la libertad de opinión y expresión, a la privacidad y a la no discriminación (21). Dicho informe se desarrolla en tres ejes centrales. En primer lugar, define los términos clave para un debate sobre la IA en relación con los derechos humanos. En segundo lugar, identifica el marco jurídico de derechos humanos aplicable en materia de IA. Y, por último, presenta algunas recomendaciones preliminares para asegurar que, a medida que evolucionan las tecnologías que forman la IA, se incorporen en ese proceso consideraciones de derechos humanos.

El vínculo entre las redes sociales y la inteligencia artificial es por demás cercano: la IA permite a las empresas administrar resultados de búsquedas y transmisiones de noticias, además de la colocación de anuncios publicitarios, organizando lo que ven los usuarios y cuándo lo ven. Asimismo, las compañías de medios sociales usan tecnologías de IA como instrumento para moderar el contenido de sus plataformas, que a menudo sirve de primera línea de defensa contra publicaciones que pueden infringir sus reglas.

Así las cosas, se aprecia que mediante dispositivos de inteligencia artificial se ejerce la administración del contenido en internet, ofreciéndose medios refinados y eficientes de gestión que se encuentran fuera del alcance de los medios de información tradicionales. Pero, como contrapartida, el predominio de la IA es motivo de preocupación por su efecto inmediato en la capacidad de formar opiniones en las personas.

En tal contexto, y luego de hacer un pormenorizado análisis del uso de la inteligencia artificial y la protección de los derechos humanos (22), el informe enumera las recomendaciones dirigidas al Estado y a las empresas. En lo relativo al tema bajo estudio, se señala que las empresas deben explicitar dónde y cómo se utilizan las tecnologías de inteligencia artificial y las técnicas automatizadas en sus plataformas, servicios y aplicaciones (23). Asimismo, se aconseja la publicación de informes sobre la supresión de contenido, con estudios de casos y educación sobre el perfilado comercial y político. Finalmente, señala que las empresas deben prevenir y dar cuenta de la discriminación en los sistemas de IA, lo que incluye asegurar que los equipos que los diseñan reflejen actitudes no discriminatorias y eviten sesgos (corrección de errores de muestreo, depuración de conjuntos de datos, etc.).

La Unión Europea (UE) no se queda atrás. El instrumento que opera como base regulatoria de la cuestión bajo estudio es la “Decisión marco relativa a la lucha contra determinadas formas y manifestaciones del racismo y la xenofobia mediante el derecho penal” (24). Su objetivo es garantizar que ciertas manifestaciones graves del racismo y la xenofobia sean punibles con sanciones penales efectivas, proporcionadas y disuasorias en toda la UE. Asimismo, pretende mejorar y fomentar la cooperación judicial en este campo (25).

Otro documento verdaderamente relevante en el área bajo estudio es el acuerdo del año 2016 entre la Comisión Europea, por un lado, y, Facebook, Microsoft, Twitter y YouTube, por el otro, denominado “Código de conducta para contrarrestar el discurso de odio ilegal en línea” (26). Su propósito es ayudar a los usuarios a notificar el hallazgo de discursos de odio ilegal proferidos en estas plataformas sociales, mejorar el apoyo a la sociedad civil y generar una coordinación con las autoridades nacionales. Para lograrlo, los firmantes se comprometieron a diseñar procedimientos claros y eficaces para examinar las notificaciones relativas a la incitación al odio que se produzcan en el marco de los servicios que prestan, de manera de retirar o inhabilitar el acceso a dicho contenido dentro de las 24 horas de recibidas las notificaciones.

Se han llevado a cabo rondas de control para evaluar la aplicación del citado Código de conducta (27). La última de ellas arrojó resultados positivos: las empresas informáticas evalúan ahora el 89% de los contenidos señalados en un plazo de 24 horas y retiran el 72% de los contenidos que se consideran constitutivos de incitación ilegal al odio (28).

Más allá de esos tentadores resultados, la ONU, en su informe A/HRC/38/35, señaló que, si bien el fomento de “argumentos contrarios independientes” puede resultar atractivo ante el contenido “extremista” o “terrorista”, la presión para adoptar esos enfoques conlleva el riesgo de transformar las plataformas en transmisores de propaganda más allá de los ámbitos de interés legítimo (29).

Asimismo, el 28/09/2017 la Comisión Europea emitió la comunicación al Parlamento Europeo titulada “Lucha contra el contenido ilícito en línea: Hacia una mayor responsabilidad de las plataformas en línea”, que recoge una serie de principios y directrices para que éstas intensifiquen su lucha contra los contenidos ilícitos en línea, en cooperación con las autoridades nacionales, los Estados miembros y otras partes interesadas. Su objetivo es facilitar y aumentar la aplicación de buenas prácticas en la prevención, detección, retiro o inhabilitación del acceso a contenidos ilícitos, con el fin de garantizar su supresión efectiva y la protección de los derechos fundamentales. Se propone también indagar acerca de las responsabilidades de las plataformas cuando adoptan medidas efectivas para detectar o retirar contenidos ilícitos, o para inhabilitar el acceso a ellos (acciones denominadas “de buen samaritano”) (30).

En cuanto a la responsabilidad de las plataformas, el marco jurídico general para la supresión de contenidos ilícitos aplicable en la UE es la “Directiva sobre el comercio electrónico” (31), que incluye condiciones a las que las plataformas en línea pueden acogerse para la exención de responsabilidad por los contenidos ilícitos que publiquen. En este sentido, su art. 14 establece que, cuando se preste un servicio de la sociedad de la información consistente en almacenar datos facilitados por el destinatario del servicio, el prestador no será considerado responsable de los datos almacenados, a condición de que: a) el prestador de servicios no tenga conocimiento efectivo de que la información es ilícita; y b) en cuanto tenga conocimiento de ello, el prestador actúe con prontitud para retirar los datos o hacer que el acceso a ellos sea imposible.

Por último, resulta insoslayable la referencia al Reglamento General de Protección de Datos Europeo (RGPD), relativo a la protección de las personas físicas en lo que respecta al tratamiento de sus datos personales y a la libre circulación de estos datos (32). Entre sus novedades troncales, esta norma dio lugar a la jerarquización del consentimiento expreso del titular del dato, que debe ser demostrable por el responsable del tratamiento; a la introducción del derecho al olvido y el derecho de portabilidad de datos; así como a la creación de la figura del delegado de protección de datos, que debe ser nombrado en cada organismo público para velar por el cumplimiento del Reglamento (33).

En suma, y como se puede apreciar a simple vista, la prevención de daños ocasionados por la publicación de contenidos agraviantes y/o lesivos en línea y su regulación mediante normas de carácter general ocupan un rol preponderante en la comunidad internacional.


III.2. Casos paradigmáticos

III.2.a. La transmisión vía Facebook del atentado terrorista de Nueva Zelanda: un antes y un después en la agenda internacional.

Sin dudas, la transmisión a través de la red social Facebook del lamentable ataque a dos mezquitas que tuvo lugar el 15/03/2019 en Christchurch, una ciudad situada en la costa este de la Isla Sur de Nueva Zelanda, constituye un hito que podríamos denominar el “a. C./d. C.” en la materia (34). Además, constituye una muestra patente del discurso del odio en formato de video. Este triste hecho reavivó los debates que en esencia se dirigen a responder preguntas como las siguientes: ¿qué se publica en las redes sociales?; ¿quiénes son responsables por ello?; y ¿cómo prevenir hechos similares en un futuro?

Dos meses después del hecho, la primera ministra de Nueva Zelanda, Jacinda Ardern, y el presidente francés, Emmanuel Macron, promovieron una reunión entre variados jefes de Estado y de gobierno y los líderes del sector tecnológico para adoptar la llamada “Christchurch Call” (35), que representa un compromiso de gobiernos y empresas para eliminar el contenido terrorista y extremista violento en línea. El compromiso fue adoptado por 19 países y por 8 destacadas empresas que prestan servicios en línea, entre ellas: Amazon, Google, Twitter y YouTube.

El instrumento se basa en la convicción de que un internet gratuito, abierto y seguro ofrece beneficios extraordinarios a la sociedad. Asevera que, si bien el respeto a la libertad de expresión es fundamental, nadie tiene derecho a crear y compartir contenido terrorista online. Bajo ese lema, “Christchurch Call” es un plan de acción que compromete a las entidades gubernamentales y empresas tecnológicas a un gran abanico de medidas, incluido el desarrollo de herramientas para evitar la carga de contenido terrorista; el incremento en la transparencia en torno a la eliminación y detección de contenido lesivo, y la revisión de algoritmos que dirigen a los usuarios a ese tipo de contenido.

III.2.b. El caso de Cambridge Analytica.

Otro caso de gran impacto internacional fue el que tuvo por operador esencial a la empresa conocida como Cambridge Analytica. Mediante un procedimiento dirigido especialmente a votantes influenciables, que incluyó la obtención ilegítima de datos personales a través de la red social Facebook y una estrategia de marketing personalizada que se valió de noticias falsas para propagar mitos y reforzar prejuicios sobre determinados candidatos y políticas (36), se manipuló la opinión de los electores en distintos países. Se afirma que tales prácticas tuvieron un significativo impacto que pudo haber determinado el resultado de la campaña del Brexit (Reino Unido) (37) y de las elecciones presidenciales de la Argentina (2015) (38) y de los Estados Unidos de América (2016) (39). El informe del Parlamento británico titulado “Disinformation and ‘fake news’” (40) resulta elocuente al respecto.

Como consecuencia de ello, en julio de 2019 se abrió en el Reino Unido la consulta pública volcada en el “Online harms white paper”, que contiene un paquete de medidas para mantener a los usuarios de ese país seguros en línea. El documento propone crear un nuevo deber de cuidado (duty of care) hacia los usuarios, que será supervisado por un ente regulador independiente. Además, establece que las empresas deberán rendir cuentas por un conjunto integral de daños en línea, que van desde actividades y contenidos ilícitos hasta comportamientos que son dañinos, pero no necesariamente ilegales (41).

Entre los importantes organismos, medios de prensa y empresas que emitieron su opinión al respecto (42), se encuentra el Alan Turing Institute, que si bien destacó el loable propósito del documento, sostuvo que quedan aún temáticas por abordar y perfeccionar. Así, criticó la ausencia de una definición clara de daño y de una priorización a su respecto, la carencia de una regulación sobre la migración de contenidos entre plataformas, la poca precisión acerca de qué se considera “desinformar” y sobre la distinción entre contenidos verdaderos y falsos. También propuso que el ente regulador a crearse sea parte de uno de los ya existentes (por ejemplo, del Ofcom o del ICO) (43).

A su vez, cabe mencionar que la histórica multa impuesta a Facebook por la Comisión Federal de Comercio (FTC) en el año 2019, a la que se suma la obligación de recibir inspectores y adoptar reglas para la protección de la privacidad de sus clientes, en gran parte luce como una consecuencia del cuestionable manejo de información sensible que esta red social hizo de los datos de sus usuarios, en el caso bajo estudio (44).

Por lo demás, se advierte que en casos como el de Cambridge Analytica, más allá del perjuicio individual a los votantes, las mayores víctimas suelen ser los sistemas democráticos en sí mismos y, de rebote, las ciudadanías engañadas en su conjunto, que padecerán los efectos de políticas instaladas mediante intervenciones arteras, para las cuales las redes sociales obran como herramienta esencial. De allí el lugar sobresaliente que la regulación de la actividad de estas redes presenta hoy en la agenda internacional.

En este contexto, los Estados realizan denodados esfuerzos por hallar una solución adecuada a esta problemática, pero —claramente— esto no es fácil. El quid de la cuestión radica en determinar cómo prevenir publicaciones lesivas en las redes sociales, alcanzando un delicado equilibrio entre varios derechos fundamentales en pugna, como la libertad de expresión y opinión, el derecho a la información, a la intimidad, a la imagen, etcétera.


IV. Notas sobre la experiencia y respuestas jurídicas locales

IV.1. Normativa relevante.

Existe un abanico de normas no centradas en los fenómenos de las redes sociales, pero que sin duda les resultan aplicables. Más allá de las garantías y los principios reconocidos en la legislación fundamental, en el derecho interno, el Código Penal argentino castiga la violación de comunicaciones electrónicas (art. 153). Por su lado, el Código Civil y Comercial regula especialmente los derechos personalísimos, protegiendo el derecho a la dignidad y a la imagen, entre otros (arts. 52 a 59). La Ley de Defensa del Consumidor (LDC, ley 24.240/1993) también resulta trascendente en la materia, pudiendo considerarse a los usuarios de redes sociales como sujetos amparados por dicha normativa (45).

A su vez, la Argentina cuenta con diversas normas referidas a la protección de datos personales, como la ley 25.326, conocida como Ley de Hábeas Data, y la res. 4/2019 de la Agencia de Acceso a la Información Pública, que brinda criterios orientadores e indicadores de buenas prácticas sobre la materia. Además, en el año 2019 nuestro país suscribió el Convenio 108 para la protección de las personas con respecto al tratamiento automatizado de datos de carácter personal y su Protocolo Adicional. Por lo demás, la ley 26.032, de Servicios de Internet, ya desde su título establece que “la búsqueda, recepción y difusión de información e ideas por medio del servicio de internet se considera comprendida dentro de la garantía constitucional que ampara la libertad de expresión”. Y la ley 27.078 sobre Tecnologías de la Información y las Comunicaciones se ha diseñado con la finalidad de “...garantizar el derecho humano a las comunicaciones y a las telecomunicaciones, reconocer a las [...] TIC como un factor preponderante en la independencia tecnológica y productiva de nuestra Nación, promover el rol del Estado como planificador, incentivando la función social que dichas tecnologías poseen...”, entre otros objetivos (art. 2º).

IV.2. Jurisprudencia.

IV.2.a. Generalidades. Agresiones personales propias del ámbito intrafamiliar.

Los fallos de los tribunales dan cuenta de ciertas conductas que se reiteran. Mayormente se trata de situaciones interpersonales, nacidas en el seno de una pareja o una familia, que devienen públicas por la viralización que propician las redes sociales. Casos de reproducción de videos que hacen a la vida íntima del integrante de una pareja, luego de su ruptura; expresiones ofensivas y humillantes constitutivas de un verdadero acoso virtual, y difusión de imágenes sobre actividades cotidianas y de la vida social de sujetos especialmente protegidos por la ley, como las niñas, niños y adolescentes, son moneda corriente.

Tales situaciones ponen a prueba la imaginación de los jueces, cuyas decisiones —especialmente las de los tribunales de primera instancia— suelen dirigirse a la cesación de daños fluyentes y a la prevención de otros nuevos. Es que los perjuicios en estos casos se dan generalmente en el contexto de situaciones de violencia familiar, donde su cesación prima sobre la idea de libertad de expresión.

Los daños generalmente reconocidos se asocian a los derechos personalísimos y a las tradicionalmente llamadas afecciones del espíritu, además de los que impactan en la psiquis en forma concreta. Se habla así de la afectación de la integridad moral de la mujer, con lesión a los derechos personalísimos del honor y la honra; de factores estresantes que obran como facilitadores de la somatización cutánea (46); de violencia emocional y psicológica con impredecibles consecuencias para la vida de relación (47); y de stress postraumático asociado al miedo y la vergüenza que las agresiones suponen frente a la familia, amigos y hasta superiores jerárquicos (48), entre variados perjuicios donde la exposición pública de la intimidad y la destrucción del respeto ajeno son ejes centrales. En algún caso se reconoció una indemnización por afectación a la dignidad, considerándose dolosa la agresión por cuanto la responsable debió haberse representado el efecto de propagación que los insultos tendrían en las redes, sin que el arrepentimiento tuviera virtualidad para modificar los efectos de tal encuadre (49).

Los decisorios son ricos en figuras pretorianas, calificando a las redes sociales como “vehículos para el acoso social” (50); habilitantes de la “violencia de género digital”, esta última consistente en el uso redes sociales de acceso público para someter a la víctima al control, humillación, vejación y dominación, con daño a su reputación (51).

El encuadre normativo es variado, apelándose fundamentalmente a la Constitución Nacional, a las diversas convenciones de derechos humanos a ella incorporadas con base en su art. 75, inc. 22 (52), y a la legislación interna consagratoria de tal normativa esencial (53). La protección de la identidad de los jóvenes y la prohibición de la publicación que de ella pretenda hacerse se amparan en disposiciones específicas, como las que surgen de las leyes 13.634 y 20.056.

Un aspecto por demás reiterado en la experiencia judicial radica en la batería de medidas que los tribunales diseñan para impedir la continuación de agresiones vía redes sociales. Estas suelen tener destinatarios variados (los agresores, los responsables de las redes sociales y hasta las propias víctimas) y consisten en mandatos de hacer y no hacer, sanciones y protecciones.

En este sentido, y más allá de las medidas clásicas aplicadas ante situaciones de violencia familiar, como la suspensión del régimen de comunicación, la prohibición de acercamiento y la indicación de terapias psicológicas bajo la supervisión de organismos públicos especializados, se imponen a los agresores órdenes de abstención de nuevas publicaciones y a los responsables de las redes, órdenes de eliminación y bloqueo de contenidos y, en su caso, mandatos de cancelación y/o cierre definitivo de las cuentas involucradas, con eliminación de perfiles (54). En algún caso se dictaron órdenes generales de abstención a futuro, referidas a la habilitación del uso de enlaces, blogs, foros, grupos, sitios de fans que injurien, ofendan, agredan, vulneren o menoscaben la intimidad personal de los denunciantes.

Sin embargo, una voz diametralmente opuesta, protectoria de la libertad de expresión, también se ha expresado en la jurisprudencia nacida a partir de las agresiones vertidas en redes sociales con base en relaciones íntimas. Así, por ejemplo, en contra de la opinión de un tribunal de primera instancia, la Alzada revocó la decisión de cese de difusión de un video consistente en un “escrache” y donde se imputaba un abuso sexual, con base en la protección constitucional de la libertad de expresión, aclarándose que ello no obstaba al derecho del afectado a perseguir las responsabilidades civiles y penales subsiguientes a la publicación (55).

IV.2.b. Agresiones personales que exceden el ámbito intrafamiliar.

En cambio, cuando las agresiones trascienden las relaciones cercanas o intrafamiliares e involucran a personas públicas insultadas por un colectivo ajeno, las acciones judiciales consecuentes suelen tener por partes a las víctimas —de un lado— y a los responsables de las redes sociales —de otro—. En esos casos, la apelación a los precedentes de la Corte Suprema, conocidos como “Rodríguez, María Belén” (5