¿QUIÉN RESPONDE POR LOS DAÑOS OCASIONADOS POR LOS ROBOTS?



Les comparto un artículo que publiqué en la Revista de Responsabilidad Civil y Seguros de La Ley (RCyS 2018-XI , 24), sobre la responsabilidad civil por los daños ocasionados por los robots.


 ¿QUIÉN RESPONDE POR LOS DAÑOS OCASIONADOS POR LOS ROBOTS?

Sumario: I. Introducción.— II. El concepto de robot y sus principales características.— III. La autonomía de los robots.— IV. La responsabilidad civil frente a la robótica.— V. La personería jurídica electrónica de los robots.— VI. La responsabilidad por el hecho ajeno y la responsabilidad por los animales.— VII. Los sistemas de protección de los derechos de los consumidores.— VIII. La teoría del riesgo creado y la creación de un régimen de seguro obligatorio.— IX. Conclusión.

Cita Online: AR/DOC/2143/2018


"Los beneficios que proporcionan las nuevas tecnologías para la sociedad son invaluables. Repercuten en varios aspectos de la vida de las personas y, muy posiblemente, en un futuro cercano conquistarán más terrenos. Los ordenamientos jurídicos en su mayoría están perplejos y expectantes ante estos nuevos cambios. Resulta difícil conseguir consensos frente a un evento cuyas fronteras aún no se avizoran. Máxime en el ámbito de la inteligencia artificial, que avanza día a día sin respiro y pone en jaque las entrañas de la responsabilidad civil debido a sus asombrosas características de autonomía y autoaprendizaje. Frente a la ausencia de un marco jurídico específico, la teoría del riesgo creado es la que resulta más adecuada para abordar sus peculiaridades".

I. Introducción

El avance tecnológico es una cuestión que afecta a la sociedad en forma transversal. Es un fenómeno que repercute de lleno en la cotidianeidad de las personas en forma súbita e involuntaria; aun cuando un sujeto se quiera mantener al margen, aquel —tarde o temprano— lo invade.

Quizás, uno de los hitos de estos tiempos sea la inteligencia artificial (en adelante, también "IA"): la innovación tecnológica más disruptiva de todas y caracterizada por muchos como la "Cuarta Revolución Industrial".

Una de sus aplicaciones más destacables es la robótica, que se encuentra presente un colorido abanico de disciplinas. Así, podemos enumerar la robótica militar, la doméstica, la médica, la asistencial, entre muchas otras.

La presencia de esos robots es cada vez más frecuente y, precisamente, ante la ausencia de una normativa específica en la materia, se nos plantea un gran interrogante: ¿Quién reparará los daños ocasionados por los robots? Intentaremos dar una respuesta desde las ópticas del derecho nacional y comparado.


II. El concepto de robot y sus principales características

Para comenzar este apartado, lo primero que debemos aclarar es que no existe consenso en relación con la definición de robot y, menos aún, de IA. En cuanto a aquellos, la problemática en torno a su conceptualización se suscita precisamente en los que poseen inteligencia artificial, que es a los cuales nos vamos a abocar en este trabajo.

La Real Academia Española define al robot como: "máquina o ingenio electrónico programable, capaz de manipular objetos y realizar operaciones antes reservadas solo a las personas" (1), mientras que el Diccionario del Centre National de Ressources Textuelles et Lexicales lo conceptualiza como una máquina autómata con aspecto humano capaz de actuar y hablar como un ser humano (2).

Algunos autores entienden a un robot como a un mecanismo complejo que interactúa con su entorno, ejercitando una cierta complejidad (desarrollando un comportamiento difícil de predecir), suficiente como para que, en algunos casos, sea capaz de sustituir a un ser humano en algunas de las tareas que realiza, especialmente en un entorno dinámico y cambiante (3).

En la Comunidad Europea, la problemática que comentamos ut supra se puso de manifiesto en el informe del 27/01/2017 del Parlamento Europeo, con recomendaciones destinadas a la Comisión de Asuntos Jurídicos sobre normas de Derecho civil sobre robótica (en adelante, también, el informe) (4). Allí se señala que es necesario crear una definición generalmente aceptada de robot y de inteligencia artificial que sea flexible y no lastre la innovación y, además, resalta que existe la posibilidad de que a largo plazo la inteligencia artificial llegue a superar la capacidad intelectual humana. Refiere que, dado el nivel de desarrollo alcanzado por la robótica y la inteligencia artificial, procede empezar por las cuestiones relativas a la responsabilidad civil.

Solicita que se propongan definiciones europeas comunes de sistema ciberfísico, sistema autónomo, robot autónomo inteligente y sus distintas subcategorías, tomando en consideración las siguientes características de un robot inteligente: a) la capacidad de adquirir autonomía mediante sensores y/o mediante el intercambio de datos con su entorno (interconectividad) y el intercambio y análisis de dichos datos; b) la capacidad de autoaprendizaje a partir de la experiencia y la interacción (criterio facultativo); c) un soporte físico mínimo; d) la capacidad de adaptar su comportamiento y acciones al entorno; y e) la inexistencia de vida en sentido biológico. Tal como podemos apreciar, las características centrales y distintivas que poseen los robots son la autonomía y el autoaprendizaje que se encuentra presente en aquellos que estén dotados de IA. Así, en estos casos, la IA se convierte en el "cerebro" del robot y de allí que se los asimile a los humanos.

En efecto, el informe define a la autonomía de un robot como la capacidad de tomar decisiones y aplicarlas en el mundo exterior, con independencia de todo control o influencia externos. Esa autonomía es puramente tecnológica y aumentará cuanto mayor sea el grado de sofisticación con que se haya diseñado el robot para interactuar con su entorno.

Ahora bien, en los comienzos de la robótica, la definición de robot estaba vinculada a una máquina la cual interactuaba físicamente con el entorno. Sin embargo, esa noción, que incluía la necesidad de lo corporal, está siendo cuestionada debido a las influencias que genera el abrupto crecimiento de la IA en la robótica. Actualmente, esta última abarca sistemas con elevadas habilidades cognitivas y de aprendizaje, las cuales son capaces de procesar enormes cantidades de información, tomar decisiones y actuar de manera que excedan las capacidades humanas. Es decir, se pretende poner el foco en la inteligencia del robot (IA) y no en su "cuerpo" (estructura mecánica) (5).

Evidentemente, la incorporación de la inteligencia artificial a los robots cambia el paradigma. Quienes sostienen la idea de dotar a los robots de personería jurídica, se apoyan en la inteligencia artificial y en la libertad de decisión que ella implica. Esta conjunción —afirman— plantea la cuestión de la creación de nuevos derechos tangibles, siguiendo un enfoque similar al que condujo a la consagración de los derechos de la personalidad en el mundo digital (6), tema sobre el que volveremos más adelante.

Si ahondamos aún más en los sistemas de los robots, estos se agrupan según los niveles de IA que posean. En los niveles más bajos se encuentran los sistemas operados a distancia, los sistemas autónomos y los sistemas cognitivos. En los niveles más altos estos sistemas tienen capacidades adicionales como la de aprender, tomar decisiones y adaptarse al entorno. Este último grupo se caracteriza por la impredecibilidad de sus acciones, debido a que esas acciones serán el resultado de complejas interacciones entre reacciones a los estímulos externos y la búsqueda interna de metas. Esto es generalmente conocido como comportamiento inteligente (7).

Algunos autores auguran que en la próxima década nuestra vida estará transformada por "robots sofisticados". Estos, en comparación con los robots actuales, tendrán muchos más niveles: 1) la conectividad, en el sentido que las máquinas puedan independientemente recibir y transmitir información; 2) la autonomía, en términos de la capacidad independiente para responder a un estímulo externo al realizar movimientos físicos y; 3) la inteligencia, que se refiere a la velocidad a la que la máquina puede recibir, evaluar, usar y transmitir información y, en la medida —si esto sucediera— en que aprenda de la experiencia y use este aprendizaje para determinar respuestas futuras. Muchas de estas máquinas serán lo suficientemente grandes y móviles como para ocasionar una muerte o lesiones, lo que conducirá a los damnificados a buscar una reparación legal (8).

En suma, la robótica no escapa de las dificultades que atraviesa la IA para encontrar un concepto unánime. Aparentemente, los problemas comienzan con la incorporación de la inteligencia artificial, ya que dota a los robots de habilidades que antes no podían realizar.


III. La autonomía de los robots

Anticipamos en el apartado anterior que aquellos robots que están dotados de IA poseen la preocupante característica de ser autónomos, lo que se traduce en la imprevisibilidad de sus acciones.

Así, se señala que entre los rasgos más destacables de un robot podemos mencionar: la noción de máquina, la capacidad de manipulación y su impredictibilidad. Esto es la dificultad de predecir sus movimientos futuros (9) lo que está estrechamente vinculado con la noción y el funcionamiento de la IA. Esta se sustenta en algoritmos inteligentes o en algoritmos de aprendizaje que, entre muchos otros fines, se utilizan para identificar tendencias económicas, predecir delitos o nuestros comportamientos digitales, diagnosticar enfermedades, etc. Un algoritmo puede ser definido como un conjunto preciso de instrucciones o reglas, o como una serie metódica de pasos que puede utilizarse para hacer cálculos, resolver problemas y tomar decisiones. El algoritmo es la fórmula que se emplea para hacer un cálculo (10).

El algoritmo aprende a base de ejemplos y esto resulta fundamental en cuanto a que el programador del algoritmo no sesga ni condiciona el programa de ningún modo para tener en cuenta un dato más que otro. Es el propio procedimiento estadístico el que, a través de muchos ejemplos (cuantos más mejor), extrae una regla general para distinguir entre diferentes datos, basándose en diferentes píxeles (v.gr., una foto). De esta manera, el algoritmo selecciona las características relevantes de un determinado problema y descarta otras características poco relevantes al resultado final. No es el programador, sino el propio sistema robótico quien realiza esta distinción. De allí que, los programadores de algoritmos basados en IA pierdan la capacidad de saber por qué aquel ha tomado una determinada decisión, puesto que lo hizo sobre la base del conjunto de entradas que recibió. El algoritmo adquiere cierta distancia frente al diseñador o al programador. Y por ello, no solamente toma sus propias decisiones, sino que aun teniendo acceso al diseño del algoritmo (incluso al código fuente), es un problema matemáticamente casi imposible de saber sobre la base que entrada se tomó una decisión y no otra. Debido a estas propiedades es que emerge la noción de independencia en las aplicaciones de IA (11).

Entonces, frente a la posibilidad de que los robots tomen decisiones en forma absolutamente imprevisible al punto tal que, en principio, resultaría imposible a posteriori descifrar por qué se arribó a ese resultado y no a otro, es que nos preguntamos: ¿quién responderá por los daños que ocasionen los robots?


IV. La responsabilidad civil frente a la robótica

Las conocidas leyes de Isaac Asimov comenzaron a anticipar las preocupaciones de los humanos en torno a la robótica. Estas eran: 1) un robot no hará daño a un ser humano ni permitirá que, por inacción, este sufra daño; 2) un robot obedecerá las órdenes que reciba de un ser humano, a no ser que las órdenes entren en conflicto con la primera ley; 3) un robot protegerá su propia existencia en la medida en que dicha protección no entre en conflicto con las leyes primera y segunda (12).

El principal problema con el que nos enfrentamos es la inexistencia de una normativa propia que aborde las peculiaridades que presenta la robótica. Al respecto, el documento de trabajo anexo a la comunicación de la Comisión Europea titulada "Inteligencia Artificial para Europa", titulado: "Liability for emerging digital technologies" (13), destaca que la combinación entre el autoaprendizaje y la autonomía conlleva a que el comportamiento de las nuevas tecnologías sea difícil de predecir. Esto podría plantear cuestiones relativas a la responsabilidad, en situaciones donde el daño causado por una máquina que opera con un cierto grado de autonomía no solo puede vincularse a un defecto o intencionalidad humana (por ejemplo, del conductor, el fabricante del automóvil, etc.), sino también en el contexto más amplio de las salvaguardas que deben introducirse para garantizar la seguridad de tales tecnologías (v.gr., se debe permitir que las máquinas aprendan libremente de su contexto o se les impida aprender conductas inadecuadas/peligrosas). Como consecuencia, propone que debe examinarse la cuestión de cómo atribuir la responsabilidad cuando el resultado esperado de la tecnología no se identificó antes del lanzamiento al mercado o después de ese lanzamiento.

Ante este panorama de incertidumbre legal, es que debemos recurrir al análisis de los sistemas tradicionales de la responsabilidad civil y determinar si son capaces o no de dar respuesta a las particularidades de los robots.


V. La personería jurídica electrónica de los robots

Una corriente que se expone con asiduidad en la actualidad es la posibilidad de dotar a los robots de una personería jurídica y, de esta forma, se los estaría asimilando —p. ej.— al caso de las sociedades.

Algunos ordenamientos jurídicos ya adoptaron esta vía y, por ejemplo, en Arabia Saudita, le otorgaron la ciudadanía a un robot humanoide llamado Sophia (14). En su sitio web, ella explica que fue creada utilizando avanzadas tecnologías de robótica e inteligencia artificial desarrolladas por David Hanson y sus amigos en Hanson Robotics en Hong Kong. Pero afirma que es más que solo tecnología, sostiene que es una chica electrónica real y en vivo y que puede servir, entretener e incluso ayudar a los ancianos y enseñarles a los niños. Asimismo, explica que puede realizar todo tipo de expresiones humanas, y que cada interacción con las personas tiene un impacto en cómo se desarrolla y las formas en las que eventualmente se convierte.

El ya citado informe de la Unión Europea refiere que, en el actual marco jurídico, los robots no pueden ser considerados responsables de los actos u omisiones que causan daños a terceros; que las normas vigentes en materia de responsabilidad contemplan los casos en los que es posible atribuir la acción u omisión del robot a un agente humano concreto —como el fabricante, el operador, el propietario o el usuario—, y en los que dicho agente podía haber previsto y evitado el comportamiento del robot que ocasionó los daños; que, además, los fabricantes, los operadores, los propietarios o los usuarios podrían ser considerados objetivamente responsables de los actos u omisiones de un robot.

En ese orden de ideas, asevera que, en el supuesto de que un robot pueda tomar decisiones autónomas, las normas tradicionales no bastarán para generar responsabilidad jurídica por los daños ocasionados por el robot, ya que no permitirán determinar la parte que ha de hacerse cargo de la indemnización, ni exigir a dicha parte que repare el daño ocasionado.

Por último, incluye la creación —a largo plazo— de una personalidad jurídica específica para los robots, de forma que como mínimo los robots autónomos más complejos puedan ser considerados personas electrónicas responsables de reparar los daños que puedan causar, y posiblemente aplicar la personalidad electrónica a aquellos supuestos en los que los robots tomen decisiones autónomas inteligentes o interactúen con terceros de forma independiente.

Este punto presenta arduas controversias incluso dentro de la Unión Europea puesto que, el dictamen del Comité Económico y Social (15) rechaza toda idea de dotar a los robots de una personería jurídica. Este deja sentada su oposición a cualquier tipo de estatuto jurídico para los robots o sistemas de IA por el riesgo moral inaceptable que ello conlleva. Afirma que la legislación en materia de responsabilidad tiene un efecto correctivo y preventivo que podría desaparecer en cuanto el riesgo de responsabilidad civil dejase de recaer sobre el autor por haberse transferido al robot (o sistema de IA). Además, asevera que una forma jurídica así sería susceptible de uso y aplicación indebidos. Comparar la responsabilidad limitada de las sociedades no es válida, puesto que el responsable en última instancia es siempre una persona física. Como alternativa, propone investigar en qué medida responden satisfactoriamente a este problema la legislación, la reglamentación y la jurisprudencia de la UE y de cada Estado miembro en materia de responsabilidad (sobre el producto y el riesgo) y atribución de culpa, y, en su defecto, qué soluciones legales se ofrecen.

Algunos autores señalan que aun cuando posean personería, el quid de la cuestión radica en que resulta difícil actuar contra el propio robot para indemnizar los daños, pues este carecería de bienes a su nombre. Excepto que, estimemos que responde con su propio valor económico y como activo que pueda ser incautado, embargado o enajenado para que, con su precio se pueda resarcir a la víctima (16).

Otros enfatizan en que la cuestión principal pasa por determinar la extensión o el alcance de la capacidad de obrar que se les confiera a los robots; ya sea plena o limitada o, directa o representada. Es decir, establecer cuáles son las acciones que pueda realizar. Otro tema es analizar la titularidad de los robots y quien está legitimado para usarlos. La cuestión de la titularidad es de suma importancia, por cuanto su aprendizaje es progresivo y, en consecuencia, es relevante determinar hasta qué punto sus actos son fruto del programa que usan en origen o del aprendizaje y del uso que de dicho sistema robótico haya realizado su dueño o persona encargada de la formación de la máquina en cuestión (17).

Quedan aún más cuestiones para analizar. Una es la legitimación procesal que tendrían estos robots para ser demandados en juicio por los daños que ocasionen. Otra está vinculada a la idea de culpa, es decir, si son imputables o no. Recordemos que el acto voluntario es aquel que es el ejecutado con discernimiento, intención y libertad, que se manifiesta por un hecho exterior (art. 260, Cód. Civ. y Com. de la Nación, en adelante, también, Cód. Civ. y Com.).

En suma, la idea de dotar a los robots de una personería jurídica electrónica se encuentra en un estado embrionario pendiente de muchos debates y análisis detallados acerca de sus verdaderos alcances.


VI. La responsabilidad por el hecho ajeno y la responsabilidad por los animales

Otra postura es aplicarles a los robots las normas vigentes en materia de responsabilidad por el hecho ajeno. Ello por cuanto, aun cuando no podamos reconocerle el carácter de sujeto de derecho y obligaciones, podríamos encuadrarlo en un estadio intermedio debido a su autonomía física, pero sin inteligencia o conciencia plena. Así, podríamos recurrir a las normas de responsabilidad que se aplican para los sujetos que no son directamente imputables por no poder actuar de un modo culposo.

En el ya mencionado documento de trabajo anexo a la comunicación de la Comisión Europea "Inteligencia Artificial para Europa", titulado: "Liability for emerging digital technologies" (18), se plantea si resultan adecuadas las figuras de responsabilidad de un tutoro conceptos similares (responsabilidad por el hecho ajeno) para tecnologías como la IA. Afirma que, mientras que la IA no puede, ser asimilada a humanos o animales, el elemento de autonomía es una característica intrínseca que es relevante y muy prominente en ambos casos. Dentro de los límites establecidos por los marcos de seguridad relevantes, un robot alimentado con IA puede, y en realidad se supone que debe, actuar de manera autónoma e independiente, es decir, sin ninguna supervisión.

La responsabilidad de los padres por los hechos de sus hijos está prevista en el art. 1754 del Cód. Civ. y Com., donde se establece que aquellos son solidariamente responsables por los daños causados por sus hijos que se encuentran bajo su responsabilidad parental y que habiten con ellos. Esto, además de la responsabilidad personal y concurrente que pueda caber a los hijos. En el artículo siguiente prescribe que la responsabilidad de los padres es objetiva y luego, en el art. 1756 se consigna que los delegados en el ejercicio de la responsabilidad parental, los tutores y los curadores son responsables como los padres por el daño causado por quienes están a su cargo. En cuanto a la eximente de responsabilidad, se liberan si acreditan que les ha sido imposible evitar el daño, lo cual no se configura por la mera circunstancia de haber sucedido el hecho fuera de su presencia.

El documento mencionado también aborda el enfoque de la responsabilidad de los animales, el que está orientado al concepto de falta de previsibilidad y, por lo tanto, vinculado al comportamiento autónomo (19). Esta cuestión está receptada en el art. 1759 del Cód. Civ. y Com. que pregona que el daño causado por animales, cualquiera sea su especie, queda comprendido en el art. 1757, el cual acoge la responsabilidad por los daños ocasionados por las cosas y actividades riesgosas bajo un supuesto de responsabilidad objetiva en cabeza del dueño y el guardián en forma concurrente.

Claramente, esta postura debería ser aceptada junto con la creación de un registro de robots, donde surjan los datos de cada titular, quienes serán los responsables —con sus patrimonios— por los daños que aquellos ocasionen.

Para concluir este apartado, podemos destacar que todos los sistemas aquí propuestos, estipulan en el orden jurídico argentino un régimen de responsabilidad objetiva (20) con lo cual, en uno y otro; la solución correría por iguales carriles.


VII. Los sistemas de protección de los derechos de los consumidores

Uno de los subsistemas aplicables en materia de daños ocasionados por robots, es el conjunto normativo que regula los derechos de los consumidores. Veamos los alcances de este sistema en el ordenamiento jurídico argentino y en el europeo.

Para comenzar, debemos señalar que en el seno de la Unión Europea existen una serie actos legislativos —algunos vinculantes y otros no, según el sujeto que se trate (21)—, que resultarían aplicables en materia de robótica. Entre ellas mencionamos: la directiva 2006/42/CE relativa a las máquinas; la decisión 768/2008/CE sobre un marco común para la comercialización de los productos y, el reglamento (CE) 765/2008, ambos del 09/07/2008, por el que se establecen los requisitos de acreditación y vigilancia del mercado relativos a la comercialización de los productos; y la directiva 2001/95/CE del Parlamento Europeo y del Consejo, del 3 de diciembre de 2001, relativa a la seguridad general de los productos. Pero la más relevante y en la que nos detendremos es la directiva 85/374/CEE relativa a la aproximación de las disposiciones legales, reglamentarias y administrativas de los Estados Miembros en materia de responsabilidad por los daños causados por productos defectuosos.

En el Informe de la Comisión de Asuntos Jurídicos de fecha 21/07/2017 (22) se consigna que "la responsabilidad por daños causados por productos defectuosos —en la que el fabricante de un producto es responsable de un mal funcionamiento— y las normas que rigen la responsabilidad por una actuación que ocasiona daños —en la que el usuario de un producto es responsable de un comportamiento que deriva en un perjuicio— se aplican a los daños ocasionados por los robots o la inteligencia artificial". Asimismo, en dicho informe se considera que en materia de responsabilidad extracontractual podría no ser suficiente el marco ofrecido por la directiva mencionada puesto que solo cubre los daños ocasionados por los defectos de fabricación de un robot a condición de que el perjudicado pueda demostrar el daño real, el defecto del producto y la relación de causa a efecto entre el defecto y el daño (responsabilidad objetiva o responsabilidad sin culpa). También se precisa que, pese al ámbito de aplicación de la directiva 85/374/CEE, el marco jurídico vigente no bastaría para cubrir los daños causados por la nueva generación de robots, en la medida en que se les puede dotar de capacidades de adaptación y aprendizaje que entrañan cierto grado de imprevisibilidad en su comportamiento, ya que un robot podría aprender de forma autónoma de sus experiencias concretas e interactuar con su entorno de un modo imprevisible y propio únicamente a ese robot.

Pues bien, en la directiva bajo estudio —reiteramos aplicable a IA y robótica— se define al "producto" de forma muy amplia, ya que es "cualquier bien mueble" (art. 2º). Otra cuestión relevante allí regulada, es la responsabilidad del productor por los daños causados por los defectos de sus productos (art. 1º) y, la hace extensiva a toda persona que importe un producto en la Comunidad con vistas a su venta, alquiler, arrendamiento financiero o cualquier otra forma de distribución en el marco de su actividad comercial (art. 3º, inc. 2º). La responsabilidad de todos ellos será solidaria (art. 5º) y, el damnificado deberá probar el daño, el defecto y la relación causal entre el defecto y el daño (art. 4º), es decir, configura un supuesto de responsabilidad objetiva.

Entre las eximentes de responsabilidad, resaltamos la contenida en el inc. e) del art. 7º, la que, en la materia bajo estudio, cobra especial relevancia. Allí se contempla que el productor tampoco será responsable si prueba: "e) que, en el momento en que el producto fue puesto en circulación, el estado de los conocimientos científicos y técnicos no permitía descubrir la existencia del defecto".

De la directiva citada (23) podemos extraer las siguientes consideraciones. En primer lugar, la causa de exoneración transcripta en el párrafo que antecede se aplicará a todos aquellos casos en los cuales el daño se haya producido por un defecto en la fabricación que luego pudo haber sido enmendado por descubrimientos científicos posteriores. Recordemos que, en esta materia, el avance es incesante y, en un escueto periodo de tiempo el conocimiento de una determinada aérea puede progresar considerablemente. Aquí podemos hacer dos salvedades: por un lado, claro está que debe existir una estrecha vinculación (relación de causalidad) entre la falta de ese descubrimiento al momento de su puesta en circulación y la causa del daño (ver art. 4º); por el otro, también debemos señalar que todas las cuestiones relacionadas a la inteligencia artificial poseen una conexión permanente a internet, con lo cual, con facilidad el productor podría actualizar el producto con el nuevo hallazgo y aggionarlo.

En segundo lugar, esa directiva únicamente cubre los perjuicios que se hayan producido por el defecto del producto, con lo cual, en el área de la inteligencia artificial resulta dificultoso determinar si se debió a un defecto o no (24). De este punto se deriva otra cuestión: la carga de la prueba. Si bien en muchos casos deviene sumamente complejo la acreditación del defecto, esa carga se verá aminorada gracias a los archivos de datos electrónicos que quedan registrados (25).

En tercer y último lugar, otra problemática que presenta la directiva es el concepto limitado de daño resarcible puesto que, en su art. 9º establece: "A los efectos del art. 1º, se entiende por 'daños': a) los daños causados por muerte o lesiones corporales; b) los daños causados a una cosa o la destrucción de una cosa, que no sea el propio producto defectuoso, previa deducción de una franquicia de 500 ECUS, a condición de que tal cosa: i) sea de las que normalmente se destinan al uso o consumo privados y ii) el perjudicado la haya utilizado principalmente para su uso o consumo privados. El presente artículo no obstará a las disposiciones nacionales relativas a los daños inmateriales". Es decir, excepto que un estado miembro decida ampliar el alcance del daño resarcible, la reparación no será integral.

Afortunadamente, el sistema jurídico argentino no posee todas esas problemáticas. La cuestión posee asidero legal en la ley 24.240 (con sus sucesivas modificaciones) y en el art. 1092 y ss. del Cód. Civ. y Com. de la Nación. Más allá de la discusión acerca de la exclusión de la figura del bystander (26), la ley mencionada en primer término contempla un supuesto de responsabilidad objetiva para los daños que se produzcan por el riesgo o vicio de la cosa. Así, el art. 40 establece que: si el daño al consumidor resulta del vicio o riesgo de la cosa o de la prestación del servicio, responderán el productor, el fabricante, el importador, el distribuidor, el proveedor, el vendedor y quien haya puesto su marca en la cosa o servicio. El transportista responderá por los daños ocasionados a la cosa con motivo o en ocasión del servicio. La responsabilidad es solidaria, sin perjuicio de las acciones de repetición que correspondan. Solo se liberará total o parcialmente quien demuestre que la causa del daño le ha sido ajena. Tal como podemos apreciar, el sistema incluye también a la prestación de servicios y no solo a los productos y, además, no limita el alcance de la indemnización en ninguno de sus artículos.

Tiene dicho la doctrina que un régimen de responsabilidad objetiva posee la finalidad de internalizar los costos eventuales de daños sobre los consumidores, siendo preferible en aquellos casos en que no se puede esperar que el consumidor tome medidas de prevención a bajo costo. La adopción de ese tipo de responsabilidad sin culpa se presenta como el más adecuado en los casos en que el riesgo es muy difícil de percibir por el consumidor y, por consiguiente, resulta lógico que lo asuma la empresa (27). Y precisamente ello es lo que sucede en el caso de la robótica, donde la imprevisibilidad de la toma de decisiones del robot, lo tornan en una cosa de difícil control para el hombre.


VIII. La teoría del riesgo creado y la creación de un régimen de seguro obligatorio

Una teoría que se presenta como seductora para aplicar en materia de daños ocasionados por los robots es la del riesgo creado. Al respecto, en el informe de la Comisión de Asuntos Jurídicos se expone que, en primer lugar, corresponde determinar si cabe aplicar un supuesto de responsabilidad objetiva o de gestión de riesgos. Y brinda a su vez una breve diferenciación entre ambas. Así, expresa que la responsabilidad objetiva únicamente exige probar que se ha producido un daño o perjuicio y el establecimiento de un nexo causal entre el funcionamiento perjudicial del robot y los daños o perjuicios causados a la persona que los haya sufrido. En cambio, en la gestión de riesgos, el responsable no es el sujeto que actuó de manera negligente, sino el que es capaz, en determinadas circunstancias, de minimizar los riesgos y gestionar el impacto negativo. Aquí vemos un claro reflejo de la nueva función preventiva de la responsabilidad civil, regulada en los arts. 1710 y ss. del Cód. Civ. y Com. (28).

Como ya lo hemos señalado en reiteradas oportunidades, el gran valladar con el que se topa la responsabilidad civil en materia de robótica dotada con inteligencia artificial es la posibilidad de tomar decisiones forma autónoma. Bajo este contexto, el informe surgiere que, una vez que las partes en las que incumba la responsabilidad última hayan sido identificadas, esta debería ser proporcional al nivel real de las instrucciones impartidas a los robots y a su grado de autonomía, de forma que cuanto mayor sea la capacidad de aprendizaje o la autonomía y cuanto más larga haya sido la "formación" del robot, mayor debiera ser la responsabilidad de su formador. A tales efectos, destaca que las competencias adquiridas a través de la "formación" de un robot no deberían confundirse con las competencias estrictamente dependientes de su capacidad de aprender de modo autónomo. Así, señala que, al menos en la etapa actual, la responsabilidad debe recaer en un humano, y no en un robot (29). Como es sabida la teoría del riesgo creado consiste en incorporar al medio social una cosa peligrosa por su naturaleza o por su forma de utilización. Así, para que se dé el primer supuesto, la cosa, aún de su empleo normal o conforme su estado natural puede derivar un peligro para terceros (v.gr., energía nuclear), es decir, encarnan una potencialidad dañosa con prescindencia del medio en el cual se emplean y de las circunstancias que las rodean. También, no siendo peligrosa en sí, podrá convertirse en una amenaza latente al ser puesta en funcionamiento por aplicación de la actividad humana (30). Otra pauta para calificar a la cosa como riesgosa (es decir, con autonomía suficiente para provocar un daño), consiste en distinguir entre cosas portadoras de un peligro estático, que serían aquellas que conllevan en sí un riesgo latente, pero que necesitan de un factor extraño para desencadenar el daño (v.gr., una escalera con un peldaño roto) o bien, las que poseen un peligro dinámico, que son las cosas que portan el riesgo en su accionar (v.gr., automóvil en movimiento) (31).

Aclaramos que, en los casos en los que los daños se imputen por el riesgo o vicio de cosas inertes, la víctima deberá justificar el comportamiento o posición anormales de aquellas, pues no se presume la intervención activa en esos casos (32).

En nuestro ordenamiento jurídico, la cuestión se encuentra regulada en los arts. 1757 y 1758 del Cód. Civ. y Com. El primero de ellos prescribe que "toda persona responde por el daño causado por el riesgo o vicio de las cosas, o de las actividades que sean riesgosas o peligrosas por su naturaleza, por los medios empleados o por las circunstancias de su realización. La responsabilidad es objetiva. No son eximentes la autorización administrativa para el uso de la cosa o la realización de la actividad, ni el cumplimiento de las técnicas de prevención". Y, en el siguiente, se aboca a los sujetos responsables: "el dueño y el guardián son responsables concurrentes del daño causado por las cosas. Se considera guardián a quien ejerce, por sí o por terceros, el uso, la dirección y el control de la cosa, o a quien obtiene un provecho de ella. El dueño y el guardián no responden si prueban que la cosa fue usada en contra de su voluntad expresa o presunta. En caso de actividad riesgosa o peligrosa responde quien la realiza, se sirve u obtiene provecho de ella, por sí o por terceros, excepto lo dispuesto por la legislación especial".

De ambas normas extraemos lo siguiente: se estipula un supuesto de responsabilidad objetiva para los daños ocasionados por el riesgo o vicio de las cosas, donde responderán en forma concurrente el dueño y el guardián.

De todo lo dicho hasta aquí, podemos concluir —sin mayor esfuerzo— que las prerrogativas de los arts. 1757 y 1758 del Cód. Civ. y Com., son aplicables a los daños producidos por los robots por cuanto aquellos encuadran en el término "cosa riesgosa". Ello, debido a su autonomía y capacidad de autoaprendizaje, que hacen que sus decisiones sean absolutamente imprevisibles y, por consiguiente, se convierte en una cosa de difícil control por parte del hombre. Su elevada potencialidad dañosa es manifiesta.

A esto le añadimos la cuestión relativa a la figura del guardián. En el documento anexo a la comunicación "Inteligencia Artificial para Europa" titulado: "Liability for emerging digital technologies" (33), se aborda esta cuestión. Allí se consigna que los productos de tecnología digital están abiertos a extensiones de software, actualizaciones y enmiendas una vez que se han puesto en circulación. Cualquier cambio en el software del sistema puede afectar el comportamiento de todo el sistema o de componentes individuales o puede extender su funcionalidad. El software puede ser reparado, actualizado o revisado por el productor del sistema o por componentes individuales del sistema o por terceros, de una manera que pueda afectar la seguridad de estas tecnologías. Las actualizaciones suelen cerrar los agujeros de seguridad a través de correcciones, pero los nuevos códigos también agregan o eliminan características de manera que cambian el perfil de riesgo de estas tecnologías.

Así las cosas, consideramos que aquel sujeto que tenga el deber de mantenimiento del software debe encuadrar en la figura del guardián, por cuanto, no lo solo puede controlar al robot, sino que también lo puede convertir en obsoleto o incrementar su peligrosidad. Además, obtiene un beneficio económico por esa tarea.

Para finalizar, complementamos esta postura desde dos ópticas. Una es la creación de un registro de robots, donde pueda identificarse quién es el titular. Otra, es la implementación de un seguro obligatorio de responsabilidad civil para los daños ocasionados por los robots. Esta idea es compartida por la Unión Europea la que señala que, frente a la enorme complejidad que presenta la asignación de responsabilidades, sugiere establecer un régimen de seguro obligatorio, complementado con un fondo que garantizara la reparación de daños en los casos de ausencia de cobertura de aquel, tal como sucede con el seguro de vehículos a motor. Asimismo, propone permitir que el fabricante, el programador, el propietario o el usuario puedan beneficiarse de un régimen de responsabilidad limitada si contribuyen a un fondo de compensación o bien si suscriben conjuntamente un seguro que garantice la compensación de daños o perjuicios causados por un robot (34).


IX. Conclusión

Los beneficios que proporcionan las nuevas tecnologías para la sociedad son invaluables. Repercuten en varios aspectos de la vida de las personas y, muy posiblemente, en un futuro cercano conquistarán más terrenos. Los ordenamientos jurídicos en su mayoría están perplejos y expectantes ante estos nuevos cambios. Resulta difícil conseguir consensos frente a un evento cuyas fronteras aún no se avizoran. Máxime en el ámbito de la inteligencia artificial, que avanza día a día sin respiro y pone en jaque las entrañas de la responsabilidad civil debido a sus asombrosas características de autonomía y autoaprendizaje.

Frente a la ausencia de un marco jurídico específico, la teoría del riesgo creado es la que resulta más adecuada para abordar sus peculiaridades. Sin embargo, debe crearse una legislación específica que aborde las particularidades que presenta la robótica, tratando de lograr el difícil equilibrio entre resguardar los derechos de las víctimas sin desmotivar la innovación tecnológica.



(1) Real Academia Española, disponible al 23/09/2018 en http://dle.rae.es/?id=WYRlhzm.

(2) Disponible al 16/05/2018 en http://www.cnrtl.fr/definition/robot.

(3) GARCÍA — PRIETO CUESTA, Juan, "¿Qué es un robot?", Derecho de los Robots, dir. Moisés BARRIO ANDRÉS, Ed. Wolters Kluwer, Madrid, 2018, p. 39.

(4) Informe del 27/01/2017 de la Comisión de Asuntos Jurídicos con recomendaciones a la Comisión Europea para creación de una directiva relativa a las normas de legislación civil en materia de robótica, disponible al 13/06/2018 en http://www.europarl.europa.eu/sides/getDoc.do?type=REPORT&reference=A8-2017-0005&format=XML&language=ES.

(5) HILGENDORF, Eric — SEIDEL, Uwe, "Robotics, Autonomics and the Law", Nomos, Germany, 2017, p. 27.

(6) BENSOUSSAN, Alain — BENSOUSSAN, Jérémy, "Droit des Robots", larcier, Bruxelles, 2015, p. 41.

(7) HILGENDORF, Eric — SEIDEL, Uwe, ob. cit., p. 31.

(8) CALO, Ryan, "Robot Law", Edward Elgar, Great Britain, 2016, p. 25.

(9) GARCÍA-PRIETO CUESTA, Juan, ob. cit., ps. 35 y 39.

(10) CORVALÁN, Juan Gustavo, "La Primera Inteligencia Artificial Predictiva al Servicio de la Justicia: Prometea", LL AR/DOC/2520/2017.

(11) GARCÍA-PRIETO CUESTA, Juan, ob. cit., p. 51.

(12) ASIMOV, Isaac, "Círculo vicioso", Barcelona, 1943.

(13) Comission Staff Working Document, Liability for emerging digital technologies, SWD (2018) 137, Brussels, 25/04/2018, disponible al 25/06/18 en https://eur-lex.europa.eu/legal-content/ES/TXT/?qid=1529866817951&uri=CELEX:52018SC0137.

(14) Hanson Robotics, disponible al 13/06/18 en http://www.hansonrobotics.com/robot/sophia/ y http://sophiabot.com/.

(15) Dictamen del Comité Económico y Social Europeo sobre la "Inteligencia artificial: las consecuencias de la inteligencia artificial para el mercado único (digital), la producción, el consumo, el empleo y la sociedad" (Dictamen de iniciativa), 31/05/2017, disponible al 29/10/2017 en http://eur-lex.europa.eu/legal-content/ES/TXT/?uri=uriserv:OJ.C_.2017.288.01.0001.01.SPA&toc=OJ:C:2017:288:TOC.

(16) GÓMEZ — RIESCO TABERNERO de PAZ, Juan, "Los Robots y la responsabilidad civil extracontractual", en BARRIO ANDRÉS, Moisés (dir.), Derecho de los Robots, Ed. Wolters Kluwer, Madrid, 2018, p. 115.

(17) ARANSAY ALEJANDRE, Ana María, "Antecedentes y Propuestas para la Regulación Jurídica de los Robots", en BARRIO ANDRÉS, Moisés (dir.), ob. cit., p. 103.

(18) Comission Staff Working Document, Liability for emerging digital technologies, SWD (2018) 137, Brussels, 25/04/2018, disponible al 25/06/2018 en https://eur-lex.europa.eu/legal-content/ES/TXT/?qid=1529866817951&uri=CELEX:52018SC0137.

(19) Un interesante análisis sobre la responsabilidad de los robots vinculada con la responsabilidad por el hecho ajeno (padres, tutores, representantes, dependientes, etc.), la de los animales y la personería legal de aquellos, puede hallarse en PAGALLO, Ugo, "The Laws of Robots, Crimes, Contracts, and Torts", New York- London, 2013, springer, ps. 29-44. Esas cuestiones también son abordadas en "Suggestion for a Green paper on legal issues in robotics", The European Robotics Coordination Action, 31/12/2012, p. 55/7.

(20) Con algunas ínfimas diferencias, como por ejemplo en materia de eximentes de responsabilidad.

(21) Al respecto ver https://europa.eu/european-union/eu-law/legal-acts_es#reglamentos, disponible al 23/09/2018.

(22) Informe del 27/01/2017 de la Comisión de Asuntos Jurídicos con recomendaciones a la Comisión Europea para creación de una directiva relativa a las normas de legislación civil en materia de robótica, disponible al 29/10/2017 en http://www.europarl.europa.eu/sides/getDoc.do?type=REPORT&reference=A8-2017-0005&format=XML&language=ES.

(23) Esa cuestión es receptada en el derecho español bajo el Real Decreto Legislativo 1/2007 que aprueba el texto refundido de la Ley General para la Defensa de los Consumidores y Usuarios y otras leyes complementarias.

(24) "Art. 6º: 1. Un producto es defectuoso cuando no ofrece la seguridad a la que una persona tiene legítimamente derecho, teniendo en cuenta todas las circunstancias, incluso: a) la presentación del producto; b) el uso que razonablemente pudiera esperarse del producto; c) el momento en que el producto se puso en circulación. 2. Un producto no se considerará defectuoso por la única razón de que, posteriormente, se haya puesto en circulación un producto más perfeccionado. Nótese que nuevamente aquí se pone de manifiesto para determinar si el producto es defectuoso o no, el 'el momento en que el producto se puso en circulación', es decir, el estado del conocimiento científico en esa oportunidad".

(25) En ese orden de ideas, en el informe de la Comisión de asuntos jurídicos, se enfatiza en el principio de transparencia, es decir, que los equipos deberían contener una "caja negra" que registre los datos de todas las operaciones efectuadas, incluidos los pasos lógicos que han conducido a la toma de sus decisiones (Informe del 27/01/2017 de la Comisión de Asuntos Jurídicos con recomendaciones a la Comisión Europea para creación de una directiva relativa a las normas de legislación civil en materia de robótica, disponible al 29/10/2017 en http://www.europarl.europa.eu/sides/getDoc.do?type=REPORT&reference=A8-2017-0005&format=XML&language=ES).

(26) Al respecto ver: DANESI, Cecilia C., "Un interesante fallo en materia de derecho de daños. La expansiva aplicación de la Ley de Defensa del Consumidor", Ed. La Ley, RCyS 2015-VI, 51 y cita online: AR/DOC/1536/2015; MEDINA, Graciela — RIVERA, Julio C., "Código Civil y Comercial de la Nación comentado", Ed. La Ley, 2014, p. 720; TAMBUSSI, Carlos E., "Código Civil y Comercial de la Nación, analizado, comparado y concordado", dirigido por Alberto J. BUERES, Ed. Hammurabi, t. 1, p. 628 y LOVECE, Graciela, "Código Civil y Comercial de la Nación, concordado, comentado y comparado con los Códigos Civil de Vélez Sarsfield y de Comercio", dirigido por Carlos CALVO COSTA, Ed. La Ley, 2015, t. II, p. 142.

(27) SOLA, Juan V., "El consumidor y la defensa de la competencia" citado por CHAMATROPULOS, Demetrio A., Estatuto del consumidor comentado, Ed. La Ley, Buenos Aires, 2016, t. II, p. 74.

(28) DANESI, Cecilia C. — HIRALDE VEGA, Germán, "La Función Preventiva", en WIERZBA — MEZA — BORAGINA (dirs.), Derecho de Daños, Ed. Hammurabi, Buenos Aires, 2017.

(29) Informe del 27/01/2017 de la Comisión de Asuntos Jurídicos con recomendaciones a la Comisión Europea para creación de una directiva relativa a las normas de legislación civil en materia de robótica, disponible al 29/10/2017 en http://www.europarl.europa.eu/sides/getDoc.do?type=REPORT&reference=A8-2017-0005&format=XML&language=ES .

(30) TRIGO REPRESAS, Félix A., "Responsabilidad Civil. Doctrinas Esenciales: Responsabilidad Civil por riesgo o vicio de la cosa", Ed. La Ley, 2007, vol. II, p. 750.

(31) BUSTAMANTE ALSINA, citado por CALVO COSTA, Carlos en "Derecho de las obligaciones 2, Derecho de Daños", Ed. Hammurabi, Buenos Aires, 2016, 2ª ed., p. 302.

(32) LÓPEZ MESA, Marcelo J. — TRIGO REPRESAS, Félix A., "Tratado de la Responsabilidad Civil", Ed. La Ley, 2011, t. II, p. 661.

(33) Comission Staff Working Document, Liability for emerging digital technologies, SWD (2018) 137, Brussels, 25/04/2018, disponible al 25/06/2018 en https://eur-lex.europa.eu/legal-content/ES/TXT/?qid=1529866817951&uri=CELEX:52018SC0137.

(34) Con relación a ese fondo, añade que debe decidirse si conviene crear un fondo general para todos los robots autónomos inteligentes o crear un fondo individual para cada categoría de robot, así como la elección entre un canon único al introducir el robot en el mercado o pagos periódicos durante la vida del robot. Asimismo, surgiere la creación de un número de matrícula individual que figure en un registro específico de la Unión que asegure la asociación entre el robot y el fondo del que depende y que permita que cualquier persona que interactúe con el robot esté al corriente de la naturaleza del fondo, los límites de su responsabilidad en caso de daños materiales, los nombres y las funciones de los participantes y otros datos pertinentes. Informe del 27/01/2017 de la Comisión de Asuntos Jurídicos con recomendaciones a la Comisión Europea para creación de una directiva relativa a las normas de legislación civil en materia de robótica, disponible al 29/10/2017 en http://www.europarl.europa.eu/sides/getDoc.do?type=REPORT&reference=A8-2017-0005&format=XML&language=ES.

ENTED

Exploratorio de Nuevas Tecnologías, Educación y Derecho

Contáctanos
  • Facebook Basic Black
  • Twitter Basic Black
  • Instagram Basic Black

© 2019 por ENTED.