¿QUIÉN RESPONDE POR LOS DAÑOS OCASIONADOS POR LOS ROBOTS?



Les comparto un artículo que publiqué en la Revista de Responsabilidad Civil y Seguros de La Ley (RCyS 2018-XI , 24), sobre la responsabilidad civil por los daños ocasionados por los robots.


 ¿QUIÉN RESPONDE POR LOS DAÑOS OCASIONADOS POR LOS ROBOTS?

Sumario: I. Introducción.— II. El concepto de robot y sus principales características.— III. La autonomía de los robots.— IV. La responsabilidad civil frente a la robótica.— V. La personería jurídica electrónica de los robots.— VI. La responsabilidad por el hecho ajeno y la responsabilidad por los animales.— VII. Los sistemas de protección de los derechos de los consumidores.— VIII. La teoría del riesgo creado y la creación de un régimen de seguro obligatorio.— IX. Conclusión.

Cita Online: AR/DOC/2143/2018


"Los beneficios que proporcionan las nuevas tecnologías para la sociedad son invaluables. Repercuten en varios aspectos de la vida de las personas y, muy posiblemente, en un futuro cercano conquistarán más terrenos. Los ordenamientos jurídicos en su mayoría están perplejos y expectantes ante estos nuevos cambios. Resulta difícil conseguir consensos frente a un evento cuyas fronteras aún no se avizoran. Máxime en el ámbito de la inteligencia artificial, que avanza día a día sin respiro y pone en jaque las entrañas de la responsabilidad civil debido a sus asombrosas características de autonomía y autoaprendizaje. Frente a la ausencia de un marco jurídico específico, la teoría del riesgo creado es la que resulta más adecuada para abordar sus peculiaridades".

I. Introducción

El avance tecnológico es una cuestión que afecta a la sociedad en forma transversal. Es un fenómeno que repercute de lleno en la cotidianeidad de las personas en forma súbita e involuntaria; aun cuando un sujeto se quiera mantener al margen, aquel —tarde o temprano— lo invade.

Quizás, uno de los hitos de estos tiempos sea la inteligencia artificial (en adelante, también "IA"): la innovación tecnológica más disruptiva de todas y caracterizada por muchos como la "Cuarta Revolución Industrial".

Una de sus aplicaciones más destacables es la robótica, que se encuentra presente un colorido abanico de disciplinas. Así, podemos enumerar la robótica militar, la doméstica, la médica, la asistencial, entre muchas otras.

La presencia de esos robots es cada vez más frecuente y, precisamente, ante la ausencia de una normativa específica en la materia, se nos plantea un gran interrogante: ¿Quién reparará los daños ocasionados por los robots? Intentaremos dar una respuesta desde las ópticas del derecho nacional y comparado.


II. El concepto de robot y sus principales características

Para comenzar este apartado, lo primero que debemos aclarar es que no existe consenso en relación con la definición de robot y, menos aún, de IA. En cuanto a aquellos, la problemática en torno a su conceptualización se suscita precisamente en los que poseen inteligencia artificial, que es a los cuales nos vamos a abocar en este trabajo.

La Real Academia Española define al robot como: "máquina o ingenio electrónico programable, capaz de manipular objetos y realizar operaciones antes reservadas solo a las personas" (1), mientras que el Diccionario del Centre National de Ressources Textuelles et Lexicales lo conceptualiza como una máquina autómata con aspecto humano capaz de actuar y hablar como un ser humano (2).

Algunos autores entienden a un robot como a un mecanismo complejo que interactúa con su entorno, ejercitando una cierta complejidad (desarrollando un comportamiento difícil de predecir), suficiente como para que, en algunos casos, sea capaz de sustituir a un ser humano en algunas de las tareas que realiza, especialmente en un entorno dinámico y cambiante (3).

En la Comunidad Europea, la problemática que comentamos ut supra se puso de manifiesto en el informe del 27/01/2017 del Parlamento Europeo, con recomendaciones destinadas a la Comisión de Asuntos Jurídicos sobre normas de Derecho civil sobre robótica (en adelante, también, el informe) (4). Allí se señala que es necesario crear una definición generalmente aceptada de robot y de inteligencia artificial que sea flexible y no lastre la innovación y, además, resalta que existe la posibilidad de que a largo plazo la inteligencia artificial llegue a superar la capacidad intelectual humana. Refiere que, dado el nivel de desarrollo alcanzado por la robótica y la inteligencia artificial, procede empezar por las cuestiones relativas a la responsabilidad civil.

Solicita que se propongan definiciones europeas comunes de sistema ciberfísico, sistema autónomo, robot autónomo inteligente y sus distintas subcategorías, tomando en consideración las siguientes características de un robot inteligente: a) la capacidad de adquirir autonomía mediante sensores y/o mediante el intercambio de datos con su entorno (interconectividad) y el intercambio y análisis de dichos datos; b) la capacidad de autoaprendizaje a partir de la experiencia y la interacción (criterio facultativo); c) un soporte físico mínimo; d) la capacidad de adaptar su comportamiento y acciones al entorno; y e) la inexistencia de vida en sentido biológico. Tal como podemos apreciar, las características centrales y distintivas que poseen los robots son la autonomía y el autoaprendizaje que se encuentra presente en aquellos que estén dotados de IA. Así, en estos casos, la IA se convierte en el "cerebro" del robot y de allí que se los asimile a los humanos.

En efecto, el informe define a la autonomía de un robot como la capacidad de tomar decisiones y aplicarlas en el mundo exterior, con independencia de todo control o influencia externos. Esa autonomía es puramente tecnológica y aumentará cuanto mayor sea el grado de sofisticación con que se haya diseñado el robot para interactuar con su entorno.

Ahora bien, en los comienzos de la robótica, la definición de robot estaba vinculada a una máquina la cual interactuaba físicamente con el entorno. Sin embargo, esa noción, que incluía la necesidad de lo corporal, está siendo cuestionada debido a las influencias que genera el abrupto crecimiento de la IA en la robótica. Actualmente, esta última abarca sistemas con elevadas habilidades cognitivas y de aprendizaje, las cuales son capaces de procesar enormes cantidades de información, tomar decisiones y actuar de manera que excedan las capacidades humanas. Es decir, se pretende poner el foco en la inteligencia del robot (IA) y no en su "cuerpo" (estructura mecánica) (5).

Evidentemente, la incorporación de la inteligencia artificial a los robots cambia el paradigma. Quienes sostienen la idea de dotar a los robots de personería jurídica, se apoyan en la inteligencia artificial y en la libertad de decisión que ella implica. Esta conjunción —afirman— plantea la cuestión de la creación de nuevos derechos tangibles, siguiendo un enfoque similar al que condujo a la consagración de los derechos de la personalidad en el mundo digital (6), tema sobre el que volveremos más adelante.

Si ahondamos aún más en los sistemas de los robots, estos se agrupan según los niveles de IA que posean. En los niveles más bajos se encuentran los sistemas operados a distancia, los sistemas autónomos y los sistemas cognitivos. En los niveles más altos estos sistemas tienen capacidades adicionales como la de aprender, tomar decisiones y adaptarse al entorno. Este último grupo se caracteriza por la impredecibilidad de sus acciones, debido a que esas acciones serán el resultado de complejas interacciones entre reacciones a los estímulos externos y la búsqueda interna de metas. Esto es generalmente conocido como comportamiento inteligente (7).

Algunos autores auguran que en la próxima década nuestra vida estará transformada por "robots sofisticados". Estos, en comparación con los robots actuales, tendrán muchos más niveles: 1) la conectividad, en el sentido que las máquinas puedan independientemente recibir y transmitir información; 2) la autonomía, en términos de la capacidad independiente para responder a un estímulo externo al realizar movimientos físicos y; 3) la inteligencia, que se refiere a la velocidad a la que la máquina puede recibir, evaluar, usar y transmitir información y, en la medida —si esto sucediera— en que aprenda de la experiencia y use este aprendizaje para determinar respuestas futuras. Muchas de estas máquinas serán lo suficientemente grandes y móviles como para ocasionar una muerte o lesiones, lo que conducirá a los damnificados a buscar una reparación legal (8).

En suma, la robótica no escapa de las dificultades que atraviesa la IA para encontrar un concepto unánime. Aparentemente, los problemas comienzan con la incorporación de la inteligencia artificial, ya que dota a los robots de habilidades que antes no podían realizar.


III. La autonomía de los robots

Anticipamos en el apartado anterior que aquellos robots que están dotados de IA poseen la preocupante característica de ser autónomos, lo que se traduce en la imprevisibilidad de sus acciones.

Así, se señala que entre los rasgos más destacables de un robot podemos mencionar: la noción de máquina, la capacidad de manipulación y su impredictibilidad. Esto es la dificultad de predecir sus movimientos futuros (9) lo que está estrechamente vinculado con la noción y el funcionamiento de la IA. Esta se sustenta en algoritmos inteligentes o en algoritmos de aprendizaje que, entre muchos otros fines, se utilizan para identificar tendencias económicas, predecir delitos o nuestros comportamientos digitales, diagnosticar enfermedades, etc. Un algoritmo puede ser definido como un conjunto preciso de instrucciones o reglas, o como una serie metódica de pasos que puede utilizarse para hacer cálculos, resolver problemas y tomar decisiones. El algoritmo es la fórmula que se emplea para hacer un cálculo (10).

El algoritmo aprende a base de ejemplos y esto resulta fundamental en cuanto a que el programador del algoritmo no sesga ni condiciona el programa de ningún modo para tener en cuenta un dato más que otro. Es el propio procedimiento estadístico el que, a través de muchos ejemplos (cuantos más mejor), extrae una regla general para distinguir entre diferentes datos, basándose en diferentes píxeles (v.gr., una foto). De esta manera, el algoritmo selecciona las características relevantes de un determinado problema y descarta otras características poco relevantes al resultado final. No es el programador, sino el propio sistema robótico quien realiza esta distinción. De allí que, los programadores de algoritmos basados en IA pierdan la capacidad de saber por qué aquel ha tomado una determinada decisión, puesto que lo hizo sobre la base del conjunto de entradas que recibió. El algoritmo adquiere cierta distancia frente al diseñador o al programador. Y por ello, no solamente toma sus propias decisiones, sino que aun teniendo acceso al diseño del algoritmo (incluso al código fuente), es un problema matemáticamente casi imposible de saber sobre la base que entrada se tomó una decisión y no otra. Debido a estas propiedades es que emerge la noción de independencia en las aplicaciones de IA (11).

Entonces, frente a la posibilidad de que los robots tomen decisiones en forma absolutamente imprevisible al punto tal que, en principio, resultaría imposible a posteriori descifrar por qué se arribó a ese resultado y no a otro, es que nos preguntamos: ¿quién responderá por los daños que ocasionen los robots?


IV. La responsabilidad civil frente a la robótica

Las conocidas leyes de Isaac Asimov comenzaron a anticipar las preocupaciones de los humanos en torno a la robótica. Estas eran: 1) un robot no hará daño a un ser humano ni permitirá que, por inacción, este sufra daño; 2) un robot obedecerá las órdenes que reciba de un ser humano, a no ser que las órdenes entren en conflicto con la primera ley; 3) un robot protegerá su propia existencia en la medida en que dicha protección no entre en conflicto con las leyes primera y segunda (12).

El principal problema con el que nos enfrentamos es la inexistencia de una normativa propia que aborde las peculiaridades que presenta la robótica. Al respecto, el documento de trabajo anexo a la comunicación de la Comisión Europea titulada "Inteligencia Artificial para Europa", titulado: "Liability for emerging digital technologies" (13), destaca que la combinación entre el autoaprendizaje y la autonomía conlleva a que el comportamiento de las nuevas tecnologías sea difícil de predecir. Esto podría plantear cuestiones relativas a la responsabilidad, en situaciones donde el daño causado por una máquina que opera con un cierto grado de autonomía no solo puede vincularse a un defecto o intencionalidad humana (por ejemplo, del conductor, el fabricante del automóvil, etc.), sino también en el contexto más amplio de las salvaguardas que deben introducirse para garantizar la seguridad de tales tecnologías (v.gr., se debe permitir que las máquinas aprendan libremente de su contexto o se les impida aprender conductas inadecuadas/peligrosas). Como consecuencia, propone que debe examinarse la cuestión de cómo atribuir la responsabilidad cuando el resultado esperado de la tecnología no se identificó antes del lanzamiento al mercado o después de ese lanzamiento.

Ante este panorama de incertidumbre legal, es que debemos recurrir al análisis de los sistemas tradicionales de la responsabilidad civil y determinar si son capaces o no de dar respuesta a las particularidades de los robots.


V. La personería jurídica electrónica de los robots

Una corriente que se expone con asiduidad en la actualidad es la posibilidad de dotar a los robots de una personería jurídica y, de esta forma, se los estaría asimilando —p. ej.— al caso de las sociedades.

Algunos ordenamientos jurídicos ya adoptaron esta vía y, por ejemplo, en Arabia Saudita, le otorgaron la ciudadanía a un robot humanoide llamado Sophia (14). En su sitio web, ella explica que fue creada utilizando avanzadas tecnologías de robótica e inteligencia artificial desarrolladas por David Hanson y sus amigos en Hanson Robotics en Hong Kong. Pero afirma que es más que solo tecnología, sostiene que es una chica electrónica real y en vivo y que puede servir, entretener e incluso ayudar a los ancianos y enseñarles a los niños. Asimismo, explica que puede realizar todo tipo de expresiones humanas, y que cada interacción con las personas tiene un impacto en cómo se desarrolla y las formas en las que eventualmente se convierte.

El ya citado informe de la Unión Europea refiere que, en el actual marco jurídico, los robots no pueden ser considerados responsables de los actos u omisiones que causan daños a terceros; que las normas vigentes en materia de responsabilidad contemplan los casos en los que es posible atribuir la acción u omisión del robot a un agente humano concreto —como el fabricante, el operador, el propietario o el usuario—, y en los que dicho agente podía haber previsto y evitado el comportamiento del robot que ocasionó los daños; que, además, los fabricantes, los operadores, los propietarios o los usuarios podrían ser considerados objetivamente responsables de los actos u omisiones de un robot.

En ese orden de ideas, asevera que, en el supuesto de que un robot pueda tomar decisiones autónomas, las normas tradicionales no bastarán para generar responsabilidad jurídica por los daños ocasionados por el robot, ya que no permitirán determinar la parte que ha de hacerse cargo de la indemnización, ni exigir a dicha parte que repare el daño ocasionado.

Por último, incluye la creación —a largo plazo— de una personalidad jurídica específica para los robots, de forma que como mínimo los robots autónomos más complejos puedan ser considerados personas electrónicas responsables de reparar los daños que puedan causar, y posiblemente aplicar la personalidad electrónica a aquellos supuestos en los que los robots tomen decisiones autónomas inteligentes o interactúen con terceros de forma independiente.

Este punto presenta arduas controversias incluso dentro de la Unión Europea puesto que, el dictamen del Comité Económico y Social (15) rechaza toda idea de dotar a los robots de una personería jurídica. Este deja sentada su oposición a cualquier tipo de estatuto jurídico para los robots o sistemas de IA por el riesgo moral inaceptable que ello conlleva. Afirma que la legislación en materia de responsabilidad tiene un efecto correctivo y preventivo que podría desaparecer en cuanto el riesgo de responsabilidad civil dejase de recaer sobre el autor por haberse transferido al robot (o sistema de IA). Además, asevera que una forma jurídica así sería susceptible de uso y aplicación indebidos. Comparar la responsabilidad limitada de las sociedades no es válida, puesto que el responsable en última instancia es siempre una persona física. Como alternativa, propone investigar en qué medida responden satisfactoriamente a este problema la legislación, la reglamentación y la jurisprudencia de la UE y de cada Estado miembro en materia de responsabilidad (sobre el producto y el riesgo) y atribución de culpa, y, en su defecto, qué soluciones legales se ofrecen.

Algunos autores señalan que aun cuando posean personería, el quid de la cuestión radica en que resulta difícil actuar contra el propio robot para indemnizar los daños, pues este carecería de bienes a su nombre. Excepto que, estimemos que responde con su propio valor económico y como activo que pueda ser incautado, embargado o enajenado para que, con su precio se pueda resarcir a la víctima (16).

Otros enfatizan en que la cuestión principal pasa por determinar la extensión o el alcance de la capacidad de obrar que se les confiera a los robots; ya sea plena o limitada o, directa o representada. Es decir, establecer cuáles son las acciones que pueda realizar. Otro tema es analizar la titularidad de los robots y quien está legitimado para usarlos. La cuestión de la titularidad es de suma importancia, por cuanto su aprendizaje es progresivo y, en consecuencia, es relevante determinar hasta qué punto sus actos son fruto del programa que usan en origen o del aprendizaje y del uso que de dicho sistema robótico haya realizado su dueño o persona encargada de la formación de la máquina en cuestión (17).

Quedan aún más cuestiones para analizar. Una es la legitimación procesal que tendrían estos robots para ser demandados en juicio por los daños que ocasionen. Otra está vinculada a la idea de culpa, es decir, si son imputables o no. Recordemos que el acto voluntario es aquel que es el ejecutado con discernimiento, intención y libertad, que se manifiesta por un hecho exterior (art. 260, Cód. Civ. y Com. de la Nación, en adelante, también, Cód. Civ. y Com.).

En suma, la idea de dotar a los robots de una personería jurídica electrónica se encuentra en un estado embrionario pendiente de muchos debates y análisis detallados acerca de sus verdaderos alcances.


VI. La responsabilidad por el hecho ajeno y la responsabilidad por los animales

Otra postura es aplicarles a los robots las normas vigentes en materia de responsabilidad por el hecho ajeno. Ello por cuanto, aun cuando no podamos reconocerle el carácter de sujeto de derecho y obligaciones, podríamos encuadrarlo en un estadio intermedio debido a su autonomía física, pero sin inteligencia o conciencia plena. Así, podríamos recurrir a las normas de responsabilidad que se aplican para los sujetos que no son directamente imputables por no poder actuar de un modo culposo.

En el ya mencionado documento de trabajo anexo a la comunicación de la Comisión Europea "Inteligencia Artificial para Europa", titulado: "Liability for emerging digital technologies" (18), se plantea si resultan adecuadas las figuras de responsabilidad de un tutoro conceptos similares (responsabilidad por el hecho ajeno) para tecnologías como la IA. Afirma que, mientras que la IA no puede, ser asimilada a humanos o animales, el elemento de autonomía es una característica intrínseca que es relevante y muy prominente en ambos casos. Dentro de los límites establecidos por los marcos de seguridad relevantes, un robot alimentado con IA puede, y en realidad se supone que debe, actuar de manera autónoma e independiente, es decir, sin ninguna supervisión.

La responsabilidad de los padres por los hechos de sus hijos está prevista en el art. 1754 del Cód. Civ. y Com., donde se establece que aquellos son solidariamente responsables por los daños causados por sus hijos que se encuentran bajo su responsabilidad parental y que habiten con ellos. Esto, además de la responsabilidad personal y concurrente que pueda caber a los hijos. En el artículo siguiente prescribe que la responsabilidad de los padres es objetiva y luego, en el art. 1756 se consigna que los delegados en el ejercicio de la responsabilidad parental, los tutores y los curadores son responsables como los padres por el daño causado por quienes están a su cargo. En cuanto a la eximente de responsabilidad, se liberan si acreditan que les ha sido imposible evitar el daño, lo cual no se configura por la mera circunstancia de haber sucedido el hecho fuera de su presencia.

El documento mencionado también aborda el enfoque de la responsabilidad de los animales, el que está orientado al concepto de falta de previsibilidad y, por lo tanto, vinculado al comportamiento autónomo (19). Esta cuestión está receptada en el art. 1759 del Cód. Civ. y Com. que pregona que el daño causado por animales, cualquiera sea su especie, queda comprendido en el art. 1757, el cual acoge la responsabilidad por los daños ocasionados por las cosas y actividades riesgosas bajo un supuesto de responsabilidad objetiva en cabeza del dueño y el guardián en forma concurrente.

Claramente, esta postura debería ser aceptada junto con la creación de un registro de robots, donde surjan los datos de cada titular, quienes serán los responsables —con sus patrimonios— por los daños que aquellos ocasionen.

Para concluir este apartado, podemos destacar que todos los sistemas aquí propuestos, estipulan en el orden jurídico argentino un régimen de responsabilidad objetiva (20) con lo cual, en uno y otro; la solución correría por iguales carriles.


VII. Los sistemas de protección de los derechos de los consumidores

Uno de los subsistemas aplicables en materia de daños ocasionados por robots, es el conjunto normativo que regula los derechos de los consumidores. Veamos los alcances de este sistema en el ordenamiento jurídico argentino y en el europeo.

Para comenzar, debemos señalar que en el seno de la Unión Europea existen una serie actos legislativos —algunos vinculantes y otros no, según el sujeto que se trate (21)—, que resultarían aplicables en materia de robótica. Entre ellas mencionamos: la directiva 2006/42/CE relativa a las máquinas; la decisión 768/2008/CE sobre un marco común para la comercialización de los productos y, el reglamento (CE) 765/2008, ambos del 09/07/2008, por el que se establecen los requisitos de acreditación y vigilancia del mercado relativos a la comercialización de los productos; y la directiva 2001/95/CE del Parlamento Europeo y del Consejo, del 3 de diciembre de 2001, relativa a la seguridad general de los productos. Pero la más relevante y en la que nos detendremos es la directiva 85/374/CEE relativa a la aproximación de las disposiciones legales, reglamentarias y administrativas de los Estados Miembros en materia de responsabilidad por los daños causados por productos defectuosos.

En el Informe de la Comisión de Asuntos Jurídicos de fecha 21/07/2017 (22) se consigna que "la responsabilidad por daños causados por productos defectuosos —en la que el fabricante de un producto es responsable de un mal funcionamiento— y las normas que rigen la responsabilidad por una actuación que ocasiona daños —en la que el usuario de un producto es responsable de un comportamiento que deriva en un perjuicio— se aplican a los daños ocasionados por los robots o la inteligencia artificial". Asimismo, en dicho informe se considera que en materia de responsabilidad extracontractual podría no ser suficiente el marco ofrecido por la directiva mencionada puesto que solo cubre los daños ocasionados por los defectos de fabricación de un robot a condición de que el perjudicado pueda demostrar el daño real, el defecto del producto y la relación de causa a efecto entre el defecto y el daño (responsabilidad objetiva o responsabilidad sin culpa). También se precisa que, pese al ámbito de aplicación de la directiva 85/374/CEE, el marco jurídico vigente no bastaría para cubrir los daños causados por la nueva generación de robots, en la medida en que se les puede dotar de capacidades de adaptación y aprendizaje que entrañan cierto grado de imprevisibilidad en su comportamiento, ya que un robot podría aprender de forma autónoma de sus experiencias concretas e interactuar con su entorno de un modo imprevisible y propio únicamente a ese robot.

Pues bien, en la directiva bajo estudio —reiteramos aplicable a IA y robótica— se define al "producto" de forma muy amplia, ya que es "cualquier bien mueble" (art. 2º). Otra cuestión relevante allí regulada, es la responsabilidad del productor por los daños causados por los defectos de sus productos (art. 1º) y, la hace extensiva a toda persona que importe un producto en la Comunidad con vistas a su venta, alquiler, arrendamiento financiero o cualquier otra forma de distribución en el marco de su actividad comercial (art. 3º, inc. 2º). La responsabilidad de todos ellos será solidaria (art. 5º) y, el damnificado deberá probar el daño, el defecto y la relación causal entre el defecto y el daño (art. 4º), es decir, configura un supuesto de responsabilidad objetiva.

Entre las eximentes de responsabilidad, resaltamos la contenida en el inc. e) del art. 7º, la que, en la materia bajo estudio, cobra especial relevancia. Allí se contempla que el productor tampoco será responsable si prueba: "e) que, en el momento en que el producto fue puesto en circulación, el estado de los conocimientos científicos y técnicos no permitía descubrir la existencia del defecto".

De la directiva citada (23) podemos extraer las siguientes consideraciones. En primer lugar, la causa de exoneración transcripta en el párrafo que antecede se aplicará a todos aquellos casos en los cuales el daño se haya producido por un defecto en la fabricación que luego pudo haber sido enmendado por descubrimientos científicos posteriores. Recordemos que, en esta materia, el avance es incesante y, en un escueto periodo de tiempo el conocimiento de una determinada aérea puede progresar considerablemente. Aquí podemos hacer dos salvedades: por un lado, claro está que debe existir una estrecha vinculación (relación de causalidad) entre la falta de ese descubrimiento al momento de su puesta en circulación y la causa del daño (ver art. 4º); por el otro, también debemos señalar que todas las cuestiones relacionadas a la inteligencia artificial poseen una conexión permanente a internet, con lo cual, con facilidad el productor podría actualizar el producto con el nuevo hallazgo y aggionarlo.

En segundo lugar, esa directiva únicamente cubre los perjuicios que se hayan producido por el defecto del producto, con lo cual, en el área de la inteligencia artificial resulta dificultoso determinar si se debió a un defecto o no (24). De este punto se deriva otra cuestión: la carga de la prueba. Si bien en muchos casos deviene sumamente complejo la acreditación del defecto, esa carga se verá aminorada gracias a los archivos de datos electrónicos que quedan registrados (25).

En tercer y último lugar, otra problemática que presenta la directiva es el concepto limitado de daño resarcible puesto que, en su art. 9º establece: "A los efectos del art. 1º, se entiende por 'daños': a) los daños causados por muerte o lesiones corporales; b) los daños causados a una cosa o la destrucción de una cosa, que no sea el propio producto defectuoso, previa deducción de una franquicia de 500 ECUS, a condición de que tal cosa: i) sea de las que normalmente se destinan al uso o consumo privados y ii) el perjudicado la haya utilizado principalmente para su uso o consumo privados. El presente artículo no obstará a las disposiciones nacionales relativas a los daños inmateriales". Es decir, excepto que un estado miembro decida ampliar el alcance del daño resarcible, la reparación no será integral.

Afortunadamente, el sistema jurídico argentino no posee todas esas problemáticas. La cuestión posee asidero legal en la ley 24.240 (con sus sucesivas modificaciones) y en el art. 1092 y ss. del Cód. Civ. y Com. de la Nación. Más allá de la discusión acerca de la exclusión de la figura del bystander (26), la ley mencionada en primer término contempla un supuesto de responsabilidad objetiva para los daños que se produzcan por el riesgo o vicio de la cosa. Así, el art. 40 establece que: si el daño al consumidor resulta del vicio o riesgo de la cosa o de la prestación del servicio, responderán el productor, el fabricante, el importador, el distribuidor, el proveedor, el vendedor y quien haya puesto su marca en la cosa o servicio. El transportista responderá por los daños ocasionados a la cosa con motivo o en ocasión del servicio. La responsabilidad es solidaria, sin perjuicio de las acciones de repetición que correspondan. Solo se liberará total o parcialmente quien demuestre que la causa del daño le ha sido ajena. Tal como podemos apreciar, el sistema incluye también a la prestación de servicios y no solo a los productos y, además, no limita el alcance de la indemnización en ninguno de sus artículos.

Tiene dicho la doctrina que un régimen de responsabilidad objetiva posee la finalidad de internalizar los costos eventuales de daños sobre los consumidores, siendo preferible en aquellos casos en que no se puede esperar que el consumidor tome medidas de prevención a bajo costo. La adopción de ese tipo de responsabilidad sin culpa se presenta como el más adecuado en los casos en que el riesgo es muy difícil de percibir por el consumidor y, por consiguiente, resulta lógico que lo asuma la empresa