Sistemas de conducción asistida. ¿Avances en seguridad o incremento de riesgos?

Trabajo de investigación presentado por la alumna Sofía Antonella Nigro en el contexto de la asignatura "Inteligencia Artificial y Derecho", dictada por la Dra. Cecilia Celeste Danesi en la Facultad de Derecho y Ciencias Sociales de la Universidad de Buenos Aires.






Sistemas de conducción asistida. ¿Avances en seguridad o incremento de riesgos?

¿Quién responde por ellos?


1. Introducción.

Si nos ponemos a pensar en la primera vez que escuchamos hablar de inteligencia artificial (en adelante “IA”), seguramente muchos de nosotros coincidiríamos en que fue en alguna película de Ciencia Ficción, como la saga “Terminator” o la mismísima “Inteligencia Artificial” de Steven Spielberg. Pero la realidad, es que, si intentamos ubicar sus orígenes, en lugar de asociarla a directores de cine o autores de novelas, debemos remitirnos a Alan Turing, quien, en la década del 40, diseñó una máquina (“Máquina de Turing”) capaz de implementar cualquier cálculo que hubiera sido formalmente definido. A comienzos de los ´50, el famoso matemático ya se estaba planteando el gran interrogante de si las máquinas pueden pensar, al publicar su artículo llamado “Computing Machinery and Intelligence”. Dicho artículo planteaba un experimento que luego se lo denominaría Test de Turing”, el cual permite determinar si una maquina es inteligente o no. Esta prueba permanece vigente en la actualidad y es motivo de estudios e investigaciones continuas. Pero no fue sino hasta el año 1956, cuando el científico John McCarthy instaló el término IA, siendo el pionero en intentar dar una definición sobre la materia, que hoy en día continúa (y probablemente continuará) controvertida.

Sin embargo, la consagración definitiva de la inteligencia artificial llegó en el año 1997 con el sistema Deep Blue, cuando IBM demostró que un sistema informático era capaz de vencer a un humano, más precisamente, vencer al ajedrez al campeón del mundo Gari Kaspárov.

La inteligencia artificial se encuentra cada día más presente en nuestro alrededor, como en los asistentes de voz o el auto-etiquetado de fotos en redes sociales, incluso en los lugares menos pensados, como por ejemplo en heladeras, que, mediante la utilización de cámaras y algoritmos, el sistema sugiere diversas dietas y listas de supermercado, en función de las compras que el usuario suele realizar, sus gustos y la ubicación geográfica.

En el presente trabajo, analizaremos el impacto de estas tecnologías disruptivas aplicadas al mundo de los automóviles y sus implicancias en materia de responsabilidad civil a nivel global.


2. Inteligencia Artificial y automóviles. ¿Llegaremos a los autos voladores?

Desde hace ya algún tiempo, la IA está presente en el mundo automotor, desde el proceso de fabricación hasta dentro del propio automóvil, y aquí es donde me interesa detenerme. Tal vez sin saberlo, los automóviles, conforme la tecnología fue avanzando (y también las exigencias de los consumidores), fueron incorporando cada vez más funcionalidades orientadas a reforzar la seguridad y el confort del conductor y sus pasajeros. Asistentes de viento lateral, alerta de cambio de carril, sistemas multimedia predictivos y aparcamiento automático, son algunos ejemplos de la incorporación de la IA más valorados.


2.2 Vehículos automatizados y autónomos.

Un vehículo autónomo es aquel capaz de imitar las capacidades humanas de manejo y conducción. Su funcionamiento consistirá en la percepción del entorno y en la toma de decisiones en función de aquellas señales que advierta y considere de relevancia para alcanzar el objetivo que se le ha fijado. Hilando un poco más fino, en palabras de la Dirección General de Tráfico de España: “Vehículo autónomo es todo aquel que dispone de capacidad motriz equipado con tecnología que permita su manejo o conducción sin precisar la forma activa de control o supervisión de un conductor, tanto si dicha tecnología autónoma estuviera activada o desactivada de forma temporal o permanente”.[1] Este tipo de vehículos no requerirán de la presencia de ninguna persona en su interior para realizar sus trayectos, y es precisamente por esta razón por la que algunos lo denominan también como vehículo robótico.

Los vehículos automatizados, por definición a contrario sensu, serán aquellos que sí requieren de la presencia de un conductor, y que tendrán diferentes herramientas que asistirán el funcionamiento de la unidad. Del nivel de autonomía que esto le brinde al vehículo, es que surge una categorización en 5 niveles de automatización.

Nivel 0: Control del conductor. El coche no tiene ningún sistema automatizado que le permita tomar el control, solamente puede disponer de algún sistema de advertencia.

Nivel 1: Asistencia al conductor. El coche dispone de sistemas como el control de crucero o la ayuda al mantenimiento del carril por el que se circula.

Nivel 2: Automatización de la conducción parcial. El coche puede calificarse como semiautónomo. En este caso, el conductor debe estar atento por si se inicia una situación de inseguridad y debe tomar el mando activamente, además el sistema se desactivará cuando el conductor tome el control. Se incluyen en este nivel mejoras en los sistemas de mantenimiento de carril, corrigiendo la dirección del vehículo independientemente de la situación del conductor, y no sólo advirtiendo de la posibilidad de falla humana, como ocurre en el nivel 1.

Nivel 3: Automatización de la conducción de manera condicional. El vehículo puede circular de forma totalmente autónoma en entornos controlados como en autopistas. La unidad circula de forma autónoma con la expectativa que, frente a alguna falla, el conductor responda y retome la conducción. Un ejemplo de esta categoría es el asistente para atascos de tráfico.

Nivel 4: Alta automatización de la conducción. El vehículo puede circular sin participación del conductor por zonas totalmente delimitadas ya que la unidad controla de manera total y continua la conducción, sin la expectativa de que una persona pueda responder. Actualmente, la mayoría de los prototipos desarrollados se encuentran en este nivel. Algunas compañías muy importantes ya se encuentran realizando pruebas con vehículos autónomos, con el fin de ver y analizar el comportamiento real de estos vehículos como, por ejemplo, Google.

Nivel 5: Automatización completa. El coche puede circular de forma totalmente autónoma y sostenida por cualquier carretera o ciudad, dentro de los límites que las normativas locales fijen, sin expectativas de que el usuario responda frente a alguna advertencia. En caso de situaciones extremas, como una gran tormenta o inundación, la unidad buscará reducir el riesgo al mínimo posible. A este nivel de automatización, es el que actualmente las compañías buscan alcanzar.


3. Mercedes Benz Brake Assist 5. ¿Cómo funciona?

A modo de ejemplo, nos remitiremos a un sistema de asistencia a la conducción, que ubicaría al vehículo que lo utilice, en el nivel 1 de la categorización desarrollada ut supra. Este sistema implementado por diferentes marcas forma parte del sistema de seguridad de unidades Mercedes Benz y para este caso concreto, el camión Actros de la marca de la estrella. El Active Brake Assist 5 es un servofreno de emergencia activo, capaz de reaccionar al peligro de colisión con peatones en movimiento pudiendo realizar una frenada en seco, dentro de los límites del sistema; utiliza sensores y cámaras de alto rendimiento, de esta manera, se analizan datos del interior del vehículo desde el inicio de la marcha y se supervisa el tráfico por delante de la unidad. Si reconoce peligro de colisión con peatones en movimiento cruzando la calle, acercándose a esta, acercándose al propio vehículo o circulando en el mismo sentido por el carril utilizado, se pone en práctica un proceso de frenado de dos etapas: En primer lugar, emite una señal visual y sonora e inicia un frenado parcial. Si no detecta ninguna reacción del conductor realiza un frenado en seco automático y enciende luces de advertencia.

Para el caso de detección de peatones, el Active Brake Assist puede realizar el frenado en seco, circulando a una velocidad de hasta 50 km/h. Si detecta otros vehículos en movimiento o detenidos, el sistema reacciona también a velocidades superiores a 80 km/h.

De esta forma, el sistema ayuda al conductor en situaciones críticas de conducción y contribuye a evitar accidentes dentro de determinados límites.

4. Responsabilidad: Distintas posturas. Normativa Argentina.

4.1. Visión y propuestas del Antiguo Continente.

A priori vemos cómo estas tecnologías, están desarrolladas con el fin de mejorar nuestra cotidianidad y en este caso específico, se pretende lograr una conducción más segura, reduciendo riesgos tanto para los conductores como para peatones y objetos de la vía pública.

El problema que se nos presenta es que, como suele ocurrir, el derecho va siempre -o casi- un paso atrás de los avances tecnológicos, sociales, y culturales, y es por ello que, al día de hoy, no contamos con una normativa específica en materia de Inteligencia Artificial.

Ahora bien, el hecho de que no tengamos normativa vigente no es sinónimo de que no se haya debatido al respecto y es por eso que podemos encontrar diferentes documentos dentro de la Unión Europea (en adelante “UE”) redactados con el propósito de unificar criterios y poder así, impulsar la regulación normativa de este fenómeno que avanza a pasos agigantados.

En el Informe de la Comisión de Asuntos Jurídicos con recomendaciones a la Comisión Europea para Creación de una Directiva Relativa a las Normas de Legislación Civil en Materia de Robótica (en adelante “Informe”), en sus considerandos Z-AI, enfatiza la importancia de medir la responsabilidad de los robots, introduciendo a su vez, algunas definiciones.

El informe, nos dice que “la autonomía de un robot puede definirse como la capacidad de tomar decisiones y aplicarlas en el mundo exterior, con independencia de todo control o influencia externos; que esa autonomía es puramente tecnológica y que será mayor cuanto mayor sea el grado de sofisticación con que se haya diseñado el robot para interactuar con su entorno”. A su vez, “cuanto más autónomos sean los robots, más difícil será considerarlos simples instrumentos en manos de otros agentes (como el fabricante, el operador, el propietario, el usuario, etc.”

Estos considerandos, y tal como sigue analizando el Informe, nos plantea la cuestión de si la normativa vigente sobre responsabilidad es suficiente o es necesario (ya podríamos afirmar que sí) crear normas y principios específicos que arrojen luz sobre el asunto, especialmente para el caso de que se produzcan daños por actos u omisiones de los robots cuya causa no pueda ser atribuida a un agente humano.

Respecto a los vehículos autónomos, menciona que “el transporte autónomo abarca todas las formas del transporte por carretera, ferroviario, por vías navegables y aéreo pilotadas a distancia, automatizadas, conectadas y autónomas, incluidos los vehículos, los trenes, los buques, los transbordadores, las aeronaves y los drones, así como todas las futuras formas que resulten del desarrollo y la innovación en este sector”. “Pone de relieve que, en el caso de una toma de control imprevista del vehículo, el tiempo de reacción del conductor tiene una importancia capital, y pide, por tanto, a las partes interesadas que prevean valores realistas que determinen los aspectos de seguridad y responsabilidad;”

El informe, enuncia una serie de propuestas, tales como:

· Crear un régimen de seguro obligatorio para determinados tipos de robots, tal como el seguro del automotor que hoy en día conocemos.

· Establecer un fondo de compensación.

· Otorgar la posibilidad al fabricante, al programador, al propietario o al usuario beneficiarse de un régimen de responsabilidad limitada si contribuyen a un fondo de compensación o suscriben conjuntamente un seguro.

· Analizar si es conveniente la creación de un fondo general para todos los robots autónomos e inteligentes o crear un fondo individual para cada categoría de robot.

· Crear un número de matrícula individual que figure en un registro de la UE, y que vincule al robot con el fondo de compensación.

· Dotar a los robots autónomos más complejos de personalidad jurídica electrónica.

· Brindar a los consumidores un instrumento específico para el caso de que quisieran reclamar por los daños ocasionados por el mal funcionamiento de los robots.


4.2 Personalidad jurídica “electrónica”.

Me interesa detenerme en la anteúltima recomendación del Informe ya que, a mi entender, es la más polémica y debatible teniendo en cuenta lo que implica otorgar de personalidad jurídica a un ente.

Una persona jurídica, o ideal, al igual que la persona humana, está dotada de ciertos atributos: Nombre, domicilio o sede social y patrimonio[2].

Partiendo de esta base, si un robot tuviese personalidad jurídica “electrónica” como se propone, indefectiblemente debería contar también con estos atributos, y la dificultad se presenta, a mi entender, respecto al patrimonio. Es claro que para pretender que un robot responda por sus actos (siempre teniendo en cuenta que, a mayor autonomía, mayor sería su responsabilidad) éste debe tener un patrimonio de afectación. Pero este patrimonio, ¿quién lo administraría? ¿cuán valioso debería ser? ¿seguiría siendo rentable la utilización de robots o sistemas dotados de IA?

Ahora bien, el Dictamen (en adelante “Dictamen) de fecha 31/08/2017 emitido por el Comité Económico y Social Europeo, no comparte esta postura de otorgar personalidad jurídica para los robots o sistemas con IA, “puesto que socavaría los efectos correctores preventivos de la legislación en materia de responsabilidad, generaría un riesgo moral tanto en el desarrollo como en la utilización de la IA y daría lugar a un posible uso indebido.”[3]

El Dictamen, defiende el control humano sobre las máquinas, y para ello es indispensable contar con un marco normativo que regule el desarrollo responsable, seguro y útil de la IA. Su propuesta consiste en la creación de un Código Deontológico para el desarrollo y aplicación de la IA, para que, de esta manera, durante todo su proceso, estos sistemas sean compatibles con los principios de la dignidad humana, la integridad, la libertad, la privacidad, la diversidad cultural y de género y de los derechos humanos fundamentales.

Otra cuestión importante que también se encuentra controvertida, es si es necesaria la creación de normas que regulen el desarrollo de la IA, o en cambio, las aplicaciones específicas de estas tecnologías disruptivas. Sebastián Porro, ingeniero de IBM especialista en la materia, por ejemplo, durante una charla con los alumnos de la asignatura “Inteligencia Artificial y Derecho” de la Facultad de Derecho de la UBA, ha mencionado que la multinacional es defensora de la segunda postura.


4.3 Normativa argentina

El Código Civil y Comercial de la Nación, (en adelante “CCyCN”), vigente desde el 1 de agosto de 2015, ha plasmado la función resarcitoria de reparar el daño, pero también refleja la idea discutida en el Proyecto del Ejecutivo de 1993, posteriormente volcada en el artículo 1585 del Proyecto de 1998 y finalmente incorporada en el actual artículo 1710 del CCyCN, que establece la función de prevenir la producción innecesaria de perjuicios.

El mentado artículo 1710, establece que toda persona, humana o jurídica (¿electrónica también?) tiene el deber de evitar ocasionar un daño, de adoptar de buena fe todas las medidas necesarias para evitar la producción del daño o disminuir su magnitud y de no agravarlo en caso de que ya se haya producido.

Esto conduce a preguntarme, ¿Sería responsable de evitar el daño el dueño del robot/sistema de IA, o se le podría exigir responsabilidad preventiva al propio robot en caso de tener la autonomía suficiente para otorgarle personalidad jurídica? ¿Cómo podríamos determinar si un robot tomó todas las medidas suficientes para evitar la producción de un daño? ¿No sería su fabricante/diseñador quien se encontraría en mejor posición de adoptar esas medidas? ¿Debería ser solidaria la responsabilidad entre fabricante/diseñador y usuario, o incluso el propio robot si cuenta con personalidad? Revisemos algunas alternativas que nos ofrece nuestro ordenamiento argentino, siguiendo con la idea del otorgamiento de personalidad jurídica a los robots.

En el art. 1753, nos topamos con la responsabilidad del principal por el hecho del dependiente. Al respecto Fernando Sagarna señala que "en cuanto al concepto de 'dependiente' se continúa con la misma doctrina judicial imperante en la actualidad (...), entendiéndose por tal al que actúa bajo las órdenes y subordinación de otro, jurídica o fácticamente, ocasional o transitoriamente, gratuita u onerosamente, sin que sea necesaria la relación laboral específica para tenerlo como tal, requiriéndose al menos una relación entre la función del principal y su acólito, bastando como veremos que el hecho dañoso del subordinado haya sido cometido en ocasión de la dependencia para responsabilizar al comitente"[4](el resaltado me pertenece).

Podríamos pensar también, en aplicar análogamente el artículo siguiente, que nos habla de la responsabilidad de los padres con los hijos, asumiendo la posición de “padre” el dueño del robot.

Plovanich sostenía que "la responsabilidad civil de los padres cumple una función de garantía frente a los terceros expuestos a los perjuicios que el actuar irreflexivo del menor pudiere causar. Es obligación de los padres cuidar y educar a sus hijos, por tanto son ellos quienes deben asumir el estricto cumplimiento de esas imposiciones, y en caso de incumplimiento o mal cumplimiento, asumir frente a la sociedad las consecuencias disvaliosas que esto acarrea y, por ende, garantizar el resarcimiento de los daños que deriven del actuar espontáneo e irreflexivo propio de los menores. Podría considerarse que esta responsabilidad reposa en un sistema mixto de atribución, que no es ni subjetivo ni objetivo puro, sino que es un deber legal propio de la responsabilidad que tiene el progenitor con sus hijos y la sociedad, el respeto al prójimo, que legalmente se reconoce como el principio de 'no dañar a otro.”[5]

Es importante destacar, que para que el padre (dueño del robot) sea responsable, el hijo menor de edad (robot) debe estar bajo su vigilancia, puesto que, caso contrario, estaríamos frente un eximente de responsabilidad.

Continuando nuestro recorrido por el CCyCN, en el artículo 1757 encontramos el instituto del riesgo creado, que nos dice que “Toda persona responde por el daño causado por el riesgo o vicio de las cosas, o de las actividades que sean riesgosas o peligrosas por su naturaleza, por los medios empleados o por las circunstancias de su realización." Los sujetos que deberán responder de forma concurrente son el dueño y el guardián (quien ejerce, por sí o por terceros, el uso, la dirección y el control de la cosa, o a quien obtiene un provecho de ella). En este caso, podrán eximirse de responsabilidad, si prueban que la cosa fue usada en contra de su voluntad.

Si continuamos navegando por la normativa nacional, la Ley 24.240, de Defensa del Consumidor, en su artículo 40, establece la solidaridad para responder por los daños consecuentes del vicio o riesgo de la cosa, de todos los intervinientes en la cadena de producción del bien (productor, fabricante, importador, distribuidor, proveedor, vendedor y quien haya puesto su marca en la cosa o servicio. El transportista responderá por los daños ocasionados a la cosa con motivo o en ocasión del servicio).


5. Conclusiones.

De todo lo expuesto, y tomando de modelo el sistema Break Assist, es inevitable cuestionarnos entonces, cómo sería la situación, si actualmente se suscita un conflicto de responsabilidades causado por un obrar defectuoso o directamente por la omisión de actuar del sistema y cómo sería si estuviese bajo el ropaje de la personalidad jurídica. La respuesta parece sencilla, debido a que estamos frente a un vehículo automatizado de nivel 1, y por ellos el responsable sería el conductor, ya que su rol es fundamental y solo estamos delante de un “asistente” de conducción, pero si el sistema se activara erróneamente y provocara un accidente, ¿A caso no sería el fabricante el responsable? ¿Y si el conductor omitiera realizar las actualizaciones que el programa requería? Como mencioné antes, seguramente la cuestión pueda resolverse con la producción de diferentes pruebas periciales. Ahora bien, el tema se vuelve más complejo si nos encontrásemos frente a un vehículo de nivel 4 o 5 con personalidad jurídica electrónica, ¿La respuesta sería la misma? Por supuesto que no, ya que la principal ventaja que aporta este instituto, es la de separar patrimonios, de esta manera, sería el auto/robot quien respondería por los daños, con su propio patrimonio de afectación, y este sería uno de los objetivos perseguidos a la hora de implementar esta alternativa, pero, en mi opinión, si se implementara la propuesta del Informe, bajo ningún punto de vista podríamos liberar completamente de responsabilidad al dueño o usuario como así tampoco al fabricante, ya que estaríamos frente a un grave conflicto ético y además podría conducir a una reducción en los controles de calidad y mantenimiento de dichos robots.

La IA hoy, es una realidad que sigue ganando terreno a pasos agigantados, navegando en un vacío legal que el mundo aún no se decide a llenar, o al menos a reducir, y es por eso que la necesidad de que los estados se expidan al respecto y se dicten normas regulatorias, ya sea para la aplicación específica y/o su desarrollo, es imperante o incluso diría que urgente.



Bibliografía consultada:


· https://www.mercedes-benz-trucks.com/es_ES/models/new-actros/greater-safety.html

· https://blogthinkbig.com/historia-como-nacio-inteligencia-artificial

· https://www.ticbeat.com/innovacion/la-historia-de-la-inteligencia-artificial-desde-los-origenes-hasta-hoy/

· http://asesoresdepymes.com/breve-historia-la-inteligencia-artificial-camino-hacia-la-empresa/

· https://ecosistemahuawei.xataka.com/inteligencia-artificial-tu-coche-cinco-ejemplos-su-impacto-industria-automovil/

· https://news.samsung.com/us/new-food-ai-looks-inside-fridge-help-find-perfect-things-cook-already/

· http://www.centro-zaragoza.com:8080/web/sala_prensa/revista_tecnica/hemeroteca/articulos/R70_A7.pdf

· https://www.cnae.com/ficheros/files/noticias/INFORME%20Coche%20auto%CC%81nomo%20seguridad%20vial%20y%20formacio%CC%81n%20de%20conductores_%20INTRAS-CNAE.pdf

· “INTELIGENCIA ARTIFICIAL Y RESPONSABILIDAD CIVIL”, Cecilia Danesi, material de estudio correspondiente a la asignatura “Inteligencia Artificial y Derecho”, Facultad de Derecho, UBA.

· “Inteligencia artificial y responsabilidad civil: un enfoque en materia de vehículos autónomos”, Cecilia Danesi, La Ley, Sup. Esp. Legal Tech 2018 (noviembre), 05/11/2018, Cita Online: AR/DOC/2374/2018.

· “¿Quién responde por los daños ocasionados por los robots?”, Cecilia Danesi. La Ley, Cita Online: AR/DOC/2143/2018.

[1][1] Dirección General de Tráfico de España, 16 de noviembre de 2015. [2] Código Civil y Comercial de la Nación, Título II, Sección 3º, art. 151 y ss. [3] “Inteligencia artificial: las consecuencias de la inteligencia artificial para el mercado único (digital), la producción, el consumo, el empleo y la sociedad”, Comité Económico y Social Europeo, 31/08/2017. [4] Comentario al art. 1753, Código Civil y Comercial de la Nación, 2da Edición, Tratado Exegético, Jorge H. Alterini, La Ley, año 2016. [5] Comentario al art. 1754, Código Civil y Comercial de la Nación, 2da Edición, Tratado Exegético, Jorge H. Alterini, La Ley, año 2016.


ENTED

Exploratorio de Nuevas Tecnologías, Educación y Derecho

Contáctanos
  • Facebook Basic Black
  • Twitter Basic Black
  • Instagram Basic Black

© 2019 por ENTED.