Desafíos legales de las deepfakes en la manipulación de contenidos con figuras públicas

Actualizado: 14 oct

Trabajo de investigación presentado durante el 2º bimestre del año 2021 por la alumna Delfina de Kemmeter en el contexto de la asignatura «Inteligencia Artificial y Derecho», dictada por la Profesora Cecilia C. Danesi en la Facultad de Derecho de la Universidad de Buenos Aires.




Introducción

En el presente trabajo se investigará respecto de los remedios legales en cuanto a las consecuencias perniciosas de las Deepfakes en concepto de los contenidos que deslumbran figuras públicas. Se comenzará definiendo ¿qué son las Deepfakes?, sus efectos utilizando IA en la manipulación de los contenidos de figuras públicas y tambien la dificultad de ponderar la libertad de expresión con otros derechos personalísimos (honor, la intimidad, la imagen). Se analizará las medidas legales tomadas en la UE y E.E.U.U en respuesta de esta tecnología; y como en Argentina (por falta de una regulación normativa) podría encarar esta problemática con los remedios legales vigentes en nuestro marco jurídico. Por último, se enumerará posibles remedios tecnológicos para combatir o amortiguar los efectos negativos de las deepfakes.


Deepfakes


Definición y tecnología de IA

Las Deepfakes se definen como medios de audio, imágenes, vídeos o texto manipulados que parecen auténticos, y que presentan personas que parecen decir o hacer algo que nunca han dicho o hecho. Esta tecnología utiliza inteligencia artificial, como el machine learning, para perfeccionarse utilizando redes neuronales como el Human imagen synthesis, si se trata de manipular imágenes o videos. Respecto de los textos se utiliza el natural language processing (en adelante NLP)[1] y la clonación de voz, por el generative adversarial network (en adelante GAN)[2].

Cabe mencionar que los dos enfoques específicos de esta inteligencia artificial (en adelante IA) que se encuentra comúnmente son los programas GAN y los Autoencoders. El primero, son algoritmos de aprendizaje automático que pueden analizar un conjunto de imágenes y crear nuevas imágenes (es decir generan nuevos datos) con un nivel de calidad comparable. En cambio, los segundos, extraen información sobre las características faciales de las imágenes; en otras palabras, los autoencoders se basa en disminuir la imagen en sus resoluciones para que luego un “decoder” reconstruya la imagen que se quiere sustituir. Sintetizando el:

a. Modelo del autoencoder es alimentado por una base de datos de la que se extrae la porción que se quiere falsificar

b. Modelo de GAN empieza a detectar las imágenes falsas creadas por el modelo a) y por medio del machine learning se auto entrena para perfeccionarse y que este último modelo no lo identifique como falso.

Las Deepfakes pueden generar varios beneficios sociales como efectos perniciosos. Uno de los grandes problemas, es la utilización de esta tecnología para crear desinformación, particularmente en el área de discursos políticos o difamación a personas públicas, como ocurrieron en los de casos en Gabón[3] y en EE. UU.[4], generando grandes menoscabos al debate público, las elecciones, la legitimidad de las instituciones democráticas, como la vulneración a los derechos personalísimos.


Libertad de expresión vs los derechos personalísimos

Como se antela en el título de este trabajo, se limitará el análisis de las deepfakes respecto de las figuras públicas[5], funcionarios públicos, incluso, particulares que intervinieron en cuestiones de interés público. No se encuentra una norma típica para definir estos actores, pero nuestra CSJN, ha utilizado criterios como para encuadrar las personas que pueden ingresar en estas categorías[6]; y se excluye las figuras particulares en cuestiones privadas y a figuras públicas respecto de temas que encuadran en su vida privada[7]. Todo esto mencionado es aplicando respecto de la doctrina de la real malicia que parcialmente se ha receptado en nuestro derecho.

Ahora, ¿Qué derechos principalmente vulnera las deepfakes? Si encontramos un vídeo manipulado de Pepito Gómez, presidente de algún medio muy conocido en la Argentina, en donde se lo visualiza decir que su empresa mediática divulga información falsa para ganar más rating. Podemos inferir que su imagen pública se verá menoscabada por engañar a la sociedad por su interés lucrativo aunque es solo una Deepfake. Entonces, aquí se ve vulnerado su imagen y su honor (art. 19 CN). Sin embargo, si nosotros limitamos la circulación de ese video manipulado, estaríamos rozando con la libertad de expresión.

Cabe aclarar que la libertad de expresión se encuentra protegido por los artículos 14 y 32 de nuestra CN, y receptados en los tratados internacionales con jerarquía constitucional en el art. 75 inc. 22; sin dejar de mencionar que la ley 26.032 amplía la protección este derecho en el internet.

Ante la disyuntiva que se contraponen con distintos derechos constitucionales, la CSJN siempre ha dicho que es necesario la armonización de dos derechos, ya que, no existe la supremacía de uno sobre otro.

Pero en los casos de las deepfakes, se encuentra muy difícil a la ahora de resolver un proceso o incluso crear una normativa, dado la complejidad de dilucidar cuando algo es de contenido falso y genera prejuicios al actor. Además, aumenta la dificultad cuando entran en juego los contenidos irónicos que se encuentran enmarcados por la libertad de expresión.


Doctrina en Argentina


Real Malicia

Nos preguntamos ¿cómo resolvería Argentina un caso de Deepfake que viola la imagen de una figura pública, en donde no hay una normativa tipificada?

Podríamos comenzar en anunciar la doctrina receptada parcialmente por la CSJN en el caso Vago (y otros fallos más[8]), el test de la real malicia (dilucidado en el fallo NY c/ Sullivan de la corte norteamericana).

Este test propone que la figura pública, funcionario público o actor en asunto de interés público (en adelante Figuras públicas), no podrán obtener indemnizaciones por la publicación de informaciones falsas, salvo que se pruebe la real malicia[9].

Propone un factor de atribución subjetiva de responsabilidad en donde se debe acreditar:

1) La prueba del dolo real o eventual[10] en la conducta del emisor (en caso de particulares solo una negligencia mínima[11])

2) La prueba de la falsedad de las expresiones

3) La prueba por el actor sobre el carácter agraviante de las expresiones y el daño ocasionado

Como se advierte ut supra, hay un umbral mucho más alto respecto de lo que reviste a actores públicos a diferencia de particulares, dado que toda la sociedad plural y diversa necesita que las cuestiones de interés público sean debatidas arduamente; por lo tanto, no habría responsabilidad si se hacen declaraciones falsas al menos que exista una actual malicia.

Haciendo eco, en las deepfakes, en general el creador va a tener intención de crear contenido falso, pero puede existir distintos motivos:

a) crear contenido irónico (protegido por la libertad de expresión[12]), que no apareja responsabilidad

b) crear contenido que difama alguna persona para generar un prejuicio a su imagen - por la introducción de información falsa, inexacta o agraviante- y dependiendo del caso, podría encuadrarse en el test de actual malicia y revestir de responsabilidad civil o penal.

Es pertinente mencionar que hay doctrina que sostiene que la prueba de la real malicia tiene rango constitucional, ya que, se recepta en el art. 10 de la declaración de principios sobre libertad de expresión que es parte de la Convención IDH (junto a la comisión y corte interamericana de DH), incluido en el art. 75 inc. 22 de la CN.

Ahora bien, los problemas de esta tecnología, es la generación de “fake news” trayendo a colación el difícil control de ver si es un vídeo manipulado o es auténtico y esto es gracias a los algoritmos que se perfeccionan en el día a día. Es por eso que la regulación presentada en la UE y E.E.U.U, trata de amortiguar esta problemática con la introducción de “marcas de aguas digitales” para que en principio se pueda dilucidar si es un video manipulado.

En el caso que el usuario del software elimine estos “sellos digitales”, revisitaría de responsabilidad civil como penal dependiendo de la tipificación del país. Se podría decir que si se mantiene esta marca de agua, aunque el contenido tenga asuntos agraviantes o falsos, podría encuadrase en discursos paródicos (que no revisten de responsabilidad por lo menos en los casos de figuras públicas).


Responsabilidad civil – Factor de atribución

Expuesto respecto del factor de atribución subjetiva que tiene la doctrina de la real malicia, podría debatirse si en el caso de las deepfakes conllevan un factor de atribución subjetivo, objetivo o ambas.

La diversificación de los factores de atribución depende de quienes se les imputa la responsabilidad. En el caso de un prejuicio causado por una deepfake entran estos actores:

· creador de la deepfake

· proveedor del servicio (programador del software)

· Servicio intermediarios: redes sociales o buscadores, etc.

Es cierto que podría aplicarse para el caso de los creadores de las deepfakes, el factor de atribución subjetiva, dado que la doctrina de la real malicia tiene rango constitucional; pero también es cierto que varias veces nuestra corte a cambiando su doctrina respecto si es vinculante las disposiciones de la Comisión o la Corte IDH[13].

Sin prejuicio de esto, se puede argüir la inclusión del factor de atribución objetivo para estos casos, ya que, las deepfakes pueden considerarse como actividades riesgosas dado la trascendencia que puede conllevar a menoscabar la imagen, el honor e incluso en el ámbito político respecto de las instituciones democráticas si se emplea para disuadir el voto.

Si se considera como un factor objetivo, se podría decir que el creador de la Deepfake podría incurrir en la responsabilidad dictaminada en el art. 1757 del CyCCN, subsumiéndolo en una actividad riesgosa. Es pertinente aclarar se debe dar en los casos en que la deepfake, no parece una deepfake, en decir, no hay rastros claros para delimitar que es genuinamente manipulado. Podría hasta establecer que en caso de duda de su carácter epistémico, la interpretación debería ser que es un video manipulado[14].

En síntesis, se podría decir que es difícil tratar de armonizar el factor de atribución de responsabilidad civil dado que podría contarse que es una actividad riesgosa, cuya implicancia es un factor de atribución objetiva, pero contradice la postura a favor del factor de atribución subjetivo (que se podría argüir) que tiene rango constitucional.

En el caso del proveedor de servicio, quien es creador del app o el programador de la IA, podría endilgarse la responsabilidad objetiva encuadrándolo como guardián de la actividad riesgosa según el artículo 1758 del CyCCN. A mi modo de entender en este caso, seria demasiado alto que asuma el factor de atribución objetivo, dado que si el programador hace todos lo recaudos para que su servicio tenga las medidas de protección como “los sellos digitales” y si toma acción para disminuir las deepfakes que lesionan de forma evidente algún tipo de derecho. En todo caso, debería responsabilizar al proveedor del servicio con un factor de atribución subjetivo.

Por último, la responsabilidad de los servicios intermediarios, la doctrina mayoritaria, aboga por dictaminado en el caso de la CSJN: Rodríguez, María Belén, en donde se adjudica a los buscadores de responsabilidad subjetiva en el caso que tengan efectivo conocimiento de la ilicitud del contendió y no realizaron las medidas pertinentes para darlo de baja.


Regulación en la U.E.

En la propuesta de la U.E. respecto de la IA, se encuentra receptado la reglamentación de las deepfakes en el art 52 inc. 3, en donde establece que deben estar debidamente etiquetados para poder identificarlos, salvo en los casos que:

· La ley autorice (las autoridades que hacen cumplir la ley) la detección, la investigación y el enjuiciamiento de una persona que comete delitos

· Se quiere proteger la libertad de expresión (se puede decir que esta tipificación es bastante ambigua y no da ningún tipo de criterio)

· Se lo utilice para las artes y las ciencias.

Cabe remarcar que la responsabilidad es solo endilgada al creador de la deepfake.

En el mismo texto se categoriza a las distintas IA por sus diversos riesgos, siendo que las deepfakes se las subsume como “limited risk”, significando que tienen un mínimo de transparencia para que puedan circular. Sin prejuicio de esto, en el informe presentado por research service de la U.E. propuso que en los casos de los software de detección de deepfake hechas por las autoridades encargadas de hacer cumplir la ley, caen en la categoría de “high risk”.


Regulación en E.E.U.U

Se aprobaron dos leyes en los estados de California y en Texas respectivmanete. En la primera se tipifico que es ilegal crear deepfakes con candidatos políticos alterados para parecerse al contenido real dentro de los 60 días de una elección y exceptúa los casos donde se visualiza contenido paródico. La ley de Texas es similar, solo difere que es dentro de los 30 días de elecciones. Estas leyes quizás tengan el mayor escrutinio dado que se enfocan en el discurso político, posiblemente la categoría de discurso más protegida bajo la Primera Enmienda. Recibieron varias criticas dado que reglamentan el uso de “watermarks” que en la práctica resulta superfluo por su fácil eliminación y muchos constitucionalistas declararon inconstitucional estas leyes, dado que viola la libertad de expresión.[15]


Soluciones Alternativas

En el informe presentado por el European Parliamentary Research Service[16], se enuncia distintas soluciones para poder afrontar los desafíos de las Deepfakes y da recomendaciones para que sea más fácil poder detectarlos. Algunos son:

· Implementar marcas de agua que sean de difícil remoción, ya que en la práctica son muy fáciles de eliminar y pierde toda relevancia en cuanto a tipificarlo.

· Entrenar a cierto grupo de personas conocidas como “fact-checkers” a detectar deepfakes, como ocurre en Taiwán, donde existe comunidades llamadas “nerd immunity”. También en este país, están dando métodos e instrucciones para entrenar a la población en general.

· Mayor inversión en softwares que ayuden a la detección de estas tecnologías y tanto personas físicas como jurídicas tengan una vía fácil y accesible de denuncias.

· Se insinuado la implementación de blockchain para tener una base de datos con los auténticos contenidos no manipulados[17]

· Aumentar la responsabilidad y sanciones a los proveedores de servicios y redes sociales. Igualmente esto podría ser una arma de doble filo porque podría menoscabar el ppo. de libertad de expresión. Dependerá de la cultura jurídica de cada país como encarar la limitación de este derecho.


CONCLUSION

En conclusión, podemos decir que las deepfakes tienen graves consecuencias si es que no se limitan correctamente, dado que pueden infringir varios derechos que están constitucionalmente resguardados. A falta de normativa en nuestra República, es necesario empezar a considerar estos tipos de casos para prevenir los daños que puede acarrear, y formalizar posturas, no solo respecto del factor de atribución de responsabilidad en el derecho civil, sino también en cuanto a la libertad de Expresión (libertad de prensa).

¿Tomamos los criterios de E.E.U.U por la doctrina de la real malicia? o ¿creamos nosotros con nuestro marco jurídico la limitación de la libertad de expresión en una forma formal? En síntesis, en nuestro país, la normativa es bastante lenta respecto de todas las novedades que llegan, pero en E.E.U.U y la U.E., ya comenzaron a regularizar estas tecnologías, y no seria mala idea tomar ciertos criterios para nuestra propia normativa.


REFERENCIAS [1] Sistema que utiliza algoritmos de aprendizaje automático, es capaz de interpretar el habla, las palabras y, de las sutilezas e intenciones emocionales expresadas e imitar su estilo de escritura. [2] Link [3] Link [4] Link [5] Fallo Vago c/ Urraca se habla de la notoriedad de que el nombrado gozaba frente a la generalidad de los individuos y hace acciones o dichos que revisten de interés público. [7] Gesualdi, Dora M. c/ Cooperativa Periodistas Independientes Ltda. y otros [8] Link [9] Campillay, Julio C. c/ La Razón y otros [10] Campillay: Cuando hay figuras públicas involucradas, es necesario que éstas demuestren que las informaciones se difundieron «con conocimiento de que eran falsas o con imprudente y notoria despreocupación sobre si eran o no falsas» [11] Campillay [12] Campillay indirectamente menciona esto “La doctrina no se extiende a los puestos de expresión de ideas, juicios de valor o manifestación insusceptible de verdad o falsedad” [13] Caso Fontevecchia [14] Podría entrar en conflicto con el principio de buena fe en derecho civil. [15] Link [16] Link [17] Link