Conducción autónoma: ¿aprenderemos a confiar en ella?

Por el Dr. David Jackson, Director Técnico Global del Centro de Tecnología e Innovación de Altran. A través del ejemplo de los automóviles, su artículo ilustra en qué momento la transformación digital afectará a los productos que utilizamos cada día. También pone de relieve los retos que plantea.


Tanto en los medios de comunicación especializados como en los medios de comunicación en general se discute más sobre los coches autónomos y el papel de la "INTELIGENCIA ARTIFICIAL" para hacerlos posibles, pero menos sobre qué es lo que hará que estos sistemas sean aceptables y seguros.

Muchos debates se han generado, trágicamente, por accidentes recientes.  En estas circunstancias, es conveniente considerar la naturaleza de las tecnologías promovidas para los vehículos autónomos, y las cuestiones de si, y cómo, se puede demostrar que son aceptables desde el punto de vista de la seguridad.

El error humano como factor dominante de los accidentes de tráfico

A pesar de sus impresionantes avances en materia de seguridad, la industria del automóvil no ha sido capaz de poner fin a los errores humanos, el último de los principales factores de los accidentes de tráfico. Afortunadamente, los coches autónomos podrían cambiar las cosas.

Vehículos autónomos: ¿la solución para reducir aún más los accidentes de tráfico?

La industria del automóvil ha realizado grandes avances en materia de seguridad, como puede verse en la reducción de las muertes en carretera en las últimas décadas, hasta el punto de que el error humano es ahora el factor dominante en las causas profundas de los accidentes de tráfico. Esto no es sorprendente – la investigación ha demostrado durante mucho tiempo que la fiabilidad de los operadores humanos en la realización de acciones, incluso bien practicadas, es baja, y nuestra capacidad para reconocer situaciones inusuales no puede ser confiada. Es razonable preguntarse si las máquinas pueden aumentar o reemplazar las actividades humanas en la tarea de conducir.

El potencial de las técnicas de aprendizaje automático para reducir errores

Enfrentar de manera más eficiente los desafíos del Aprendizaje Automático es clave para aprovechar mejor las capacidades.

Inteligencia Artificial vs Humanos: ¿quién es el mejor en reconocimiento?

Los sistemas de conducción automatizados pueden aprovechar las ventajas de las tecnologías de detección más allá de la percepción humana (como el radar y el lidar) y el procesamiento mecanizado es especialmente adecuado para tareas que deben llevarse a cabo de forma continua y con un estándar elevado y consistente, como la detección de peligros en la carretera.

Las técnicas de aprendizaje automático logran específicamente altos niveles de rendimiento en tareas como el reconocimiento, que son una fuente particular de problemas al conducir.


El informe de la NHTSA identifica el 41% de los accidentes debidos a errores humanos como debidos a "errores de reconocimiento".

Podemos reconocer que los algoritmos ML se verán desafiados por el entorno altamente complejo del automóvil, pero también podemos observar que la fiabilidad humana en las tareas de reconocimiento y control se ve degradada por las nuevas circunstancias y la presión del tiempo.

La Inteligencia Artificial y los vehículos autónomos siguen teniendo problemas

Estos resultados estadísticos pueden ser impresionantes, pero no responden a la pregunta de si podríamos o deberíamos permitir altos niveles de automatización en la conducción: para ello es necesario desarrollar la confianza en el rendimiento de los sistemas de aprendizaje automático y comunicarla de manera que los reguladores, los legisladores, los juristas y el público en general se sientan cómodos con los resultados. Hay pruebas de que no estamos haciendo frente a ese desafío.

Como muestran los accidentes mencionados anteriormente, las consecuencias de un fallo en un vehículo autónomo pueden ser graves, pero el funcionamiento de una función de aprendizaje de máquina es difícil de evaluar.

Por definición, estos sistemas están entrenados, más que diseñados, para llevar a cabo tareas específicas: no hay código fuente del programa para capturar la intención del diseño del software, y las variaciones en los datos de entrenamiento pueden resultar en consecuencias no deseadas – el campo tiene un montón de anécdotas sobre modelos construidos de manera costosa que terminaron clasificando imágenes basadas en las condiciones climáticas visibles en el fondo en lugar de los objetos de primer plano que los desarrolladores pretendían.

Extensive testing to build trust

Ya sea que las situaciones descritas anteriormente surjan de un sesgo en los conjuntos de datos, o de malas elecciones de las funciones de recompensa, los resultados pueden ser ofensivos y aparentemente difíciles de arreglar.

También debemos tener en cuenta los efectos de las acciones maliciosas: los atacantes pueden dirigirse a comportamientos específicos de los modelos de aprendizaje de máquinas, y la capacidad de causar perturbaciones significativas los convierte en un objetivo atractivo. Se requerirá una validación sólida, además de la explotación de múltiples fuentes de información independientes en funcionamiento.

Se requieren nuevos enfoques de prueba

En otros ámbitos críticos, como la aviación, el transporte ferroviario o la energía nuclear, los sistemas intensivos en software están ampliamente desarrollados y desplegados, tras haber sido evaluados en función de objetivos muy estrictos en materia de tasas de fallos.


1 fallo en 10 horas puede ser común

Pero estos niveles se logran mediante la búsqueda obsesiva del comportamiento determinista, la eliminación rigurosa de posibles defectos y el establecimiento de estándares muy altos para la cobertura de las pruebas. Estos medios no funcionarán cuando no se disponga de una definición precisa del entorno del sistema (la carretera y los usuarios de la carretera).

Como mínimo, la cantidad de pruebas apropiadas para establecer un funcionamiento seguro a tales niveles es grande; consideraciones similares se aplican a las pruebas de vehículos autónomos.

Tecnología fiable para una mayor seguridad

A pesar de esta dificultad, hay algunos factores alentadores, relacionados con el entorno de implementación, el entorno social y político, y las tecnologías del propio aprendizaje automático.

El desarrollo de los vehículos de autoconducción: factores de conducción y oportunidades

Las complejidades del entorno de conducción, y la complejidad de un vehículo autónomo, nos llevan a exigir pruebas exhaustivas con grandes conjuntos de datos.  Por razones de robustez y seguridad, también podemos exigir un enfoque contradictorio de la validación y un alto grado de independencia, actividades separadas centradas específicamente en explotar las debilidades de una solución propuesta.

Estos requisitos aumentan aún más la necesidad de pruebas y de datos de prueba. Estos programas de prueba habrían sido impracticables en el pasado, pero los recientes avances en el almacenamiento, la comunicación, el procesamiento y la gestión de conjuntos de datos masivos permiten considerar la posibilidad de realizar campañas de gran envergadura (100.000-1.000-1.000.000 km).

Si resulta aceptable controlar el comportamiento inusual de todos los vehículos de un tipo (y el mantenimiento predictivo como servicio daría al usuario final una razón para estar de acuerdo con esto), entonces se pueden capturar muchos millones de kilómetros/millas recorridos -hasta cierto nivel- en un corto espacio de tiempo.

Nuestro objetivo final es lograr un nivel aceptable de seguridad, en el que la aceptación sea, en última instancia, un criterio político (o al menos jurídico) y no técnico.

Esto conlleva la responsabilidad de comunicar claramente las características que ofrece la conducción automatizada y la forma en que se pretende utilizarlas, pero abre la puerta a un argumento positivo a favor de la autonomía de los vehículos:

Los beneficios para la sociedad del transporte motorizado, y el impacto limitado de un accidente único típico, nos permiten considerar medidas estadísticas de seguridad – el número de accidentes de tráfico en un período de tiempo es probable que sea lo suficientemente grande como para que una reducción en el índice de accidentes sea atractiva, incluso si no podemos garantizar su eliminación.

Esto podría incluso ser visto como un imperativo moral opuesto a los argumentos éticos tradicionales sobre los vehículos autónomos – si salvamos estadísticamente un número significativo de vidas mediante la adopción de nuevas tecnologías, ¿es ético demorar el proceso?

También hay factores tecnológicos:

Se proponen técnicas de aprendizaje automático que podrían ofrecer razones o justificaciones que al menos podrían ser revisadas o validadas antes de la implementación. También podríamos considerar la ciencia fundamental detrás de nuestros modelos computacionales – los enfoques tradicionales de verificación de sistemas de alta seguridad se basan en una lógica matemática rigurosa; nuevos modelos podrían estar disponibles que permitirían razonar rigurosamente sobre una clase más amplia de sistemas – el trabajo del Profesor Valiant sobre algoritmos Probablemente Correctos, tal vez. Pero los avances teóricos podrían estar a décadas de distancia de la aplicación práctica.

Conclusión

Ninguno de estos enfoques abordará completamente la cuestión de la aceptabilidad de la publicidad audiovisual, ya que contiene aspectos reglamentarios, jurídicos y políticos.

La resolución requerirá una serie de habilidades y perspectivas, no sólo avances en los algoritmos de aprendizaje de la máquina y en el diseño de procesadores paralelos.

Los beneficios potenciales -en cuanto al impacto medioambiental, la capacidad de transporte y la posible reducción global de muertes y lesiones- hacen que la investigación valga la pena.

Digital Transformation

The Digital Shift has happened

A transformation in three dimensions

Accede al informe