Los automóviles autónomos necesitan sensores como cámaras, radares y unidades LiDAR para ver su entorno. Los AV también requieren poder de cómputo e inteligencia artificial para analizar flujos de datos multidimensionales y, a veces, de múltiples fuentes para proporcionar al vehículo una visión holística y unificada del entorno en tiempo real. Si la fusión de sensores muestra el camino hacia la automatización total, aún quedan muchos desafíos técnicos.
En una presentación en AutoSens Bruselas 2020, Norbert Druml, ingeniero conceptual de Infineon Technologies Austria, compartió las ambiciones del proyecto de investigación europeo de 51 millones de euros “Prystine: sistemas programables para la inteligencia en automóviles”. Druml presentó algunos de los principales logros alcanzados hasta el momento en el campo de la detección de fallas, el control y el demostrador de vehículos controlados por IA más allá del Nivel 3 de autonomía.
El consorcio de Pristine está formado por 60 socios de 14 países europeos y no europeos, incluidos fabricantes de automóviles como BMW, Ford y Maserati. Empresas de semiconductores como Infineon Technologies y NXP Semiconductors. socios tecnológicos e institutos de investigación.
(Fuente: prístino)
Comportamiento en caso de falla
Los vehículos adquirirán gradualmente capacidades autónomas, y los conductores se centrarán menos en la conducción y más en el seguimiento de los sistemas inteligentes a los que se les delegan las tareas de conducción. El nivel 3 permite que el conductor asuma la tarea de conducción en caso de falla del sistema o cuando la función de conducción autónoma alcanza sus límites operativos. Sin embargo, en los Niveles 4 y 5, no se puede esperar que los conductores intervengan de manera oportuna y adecuada. La automatización debe ser capaz de manejar situaciones críticas de seguridad por sí misma. En este sentido, el comportamiento de la operación de falla es importante en las etapas de sentido, anticipación y acción de la cadena de automatización.
Uno de los principales objetivos de Pristine es implementar FUSION (Fail-operational Urban Surround Perception) basado en la fusión de sensores y controles robustos de radar y LiDAR para permitir una conducción autónoma segura en entornos rurales y urbanos. . Podría fallar debido al mal tiempo”, dijo Druml.
El objetivo es pasar de sistemas operativos a prueba de fallas a sistemas operativos a prueba de fallas “para mejorar realmente la seguridad de todos los componentes que se integrarán en los vehículos futuros”, LiDAR, cámaras y plataformas informáticas con capacidad de procesamiento.
El sistema de fallo de funcionamiento previsto por los socios de Pristine no desactiva la función completa cuando se detecta un fallo. En cambio, Druml dice:
Para realizar FUSION de Pristine, la investigación se ha centrado en desarrollar cuatro grupos de algoritmos de IA que se describen a continuación.
Detección de usuarios viales vulnerables
En la Unión Europea, el 22% de las muertes por accidentes de tránsito son peatones y el 8% ciclistas. El grupo aborda la percepción de los usuarios vulnerables de la carretera (peatones, ciclistas, niños, discapacitados y ancianos) mediante la fusión de datos de radar, LiDAR y sensores de cámara. La solución SuperSight se desarrolló para eliminar los puntos ciegos, de modo que los usuarios vulnerables de la carretera puedan verse antes de que entren en el campo de visión natural del conductor. Los socios afirman que SuperSight también proporciona alertas de seguridad automáticas que reducen los accidentes de tránsito y mejoran la agresividad del conductor. La solución SuperSight utiliza procesamiento de video de 360° con una cámara circundante montada en el vehículo.

(Fuente: prístino)
la gestión del tráfico
En la transición de los niveles de conducción automatizada 2 y 3 al nivel 4, los vehículos deberán hacer frente a situaciones de tráfico y redes viales más complejas, especialmente en entornos urbanos. Los socios de Pristine están trabajando en soluciones de gestión de tráfico que fusionan datos de tráfico de controladores de tráfico, datos de vehículos flotantes y cámaras de reconocimiento automático de matrículas. “Combinaremos estos datos para proporcionar predicciones de tráfico para automóviles y usuarios de la carretera”, dijo Druml. “Esto nos brinda un campo de visión mucho más allá del del automóvil real, lo que permite que el automóvil optimice su trayectoria y la planificación de rutas”. Dijo que tiene el potencial de optimizar el consumo de energía.
control de suspensión
El consorcio evaluó varias tecnologías de sensores (triangulación láser, radar, imágenes por ultrasonido). Estas tecnologías escanean las condiciones de la carretera y permiten que el vehículo reaccione a las condiciones previstas cambiando la cantidad de coeficiente de amortiguación o la posición vertical del sistema de suspensión. “Los algoritmos analizan la forma del camino por delante y adaptan la suspensión del automóvil para que el usuario no sienta baches o baches en el camino”, dijo Druml. “La comodidad de conducir un automóvil ha mejorado mucho”.
Control de vehículos y planificación de trayectoria
El conjunto de algoritmos es muy adecuado para casos de uso como la detección de colisiones, la prevención de colisiones, el cambio de carril, la parada de emergencia, el adelantamiento, la marcha atrás de camiones grandes y remolques de tamaño completo, y la seguridad de arranque/parada, dijo Druml. El clúster se implementa en un demostrador con tres niveles de complejidad. En el primer nivel, llamado escenario de control compartido, el conductor es “apoyado por un copiloto basado en IA que analiza continuamente la trayectoria del automóvil. Si se detecta una situación crítica para la seguridad, el copiloto basado en IA Espero que podamos apoyar a los conductores y resolver situaciones críticas de manera segura”.
El siguiente nivel de complejidad, llamado controles en capas, “cambia sin problemas entre diferentes niveles de automatización”, dijo Druml. Por ejemplo, un vehículo puede cambiar de “control de ciudad supervisado” a “conductor de ciudad”, lo que implica un seguimiento continuo del escenario de conducción y del entorno del vehículo, así como del estado del conductor y la complejidad de la operación. analizando el
El tercer nivel de complejidad son los vehículos totalmente controlados por IA. “Aquí fusionamos datos de sensores de radar, LiDAR y cámaras, y tenemos en cuenta la información basada en la nube, especialmente las condiciones del tráfico y la información de predicción del tráfico, para mejorar las soluciones basadas en IA para la conducción autónoma.
El proyecto Pristine de tres años finalizará en abril de 2021, pero la “idea de este proyecto” continuará, dijo. “nosotros [partners] Nos hemos reunido para obtener algunos fondos para acelerar nuestras actividades de desarrollo e investigación. “
Avances, Oportunidades, Desafíos
La intensa presión competitiva para acelerar la llegada de AV ha llevado a avances significativos en el desarrollo de algoritmos de fusión de sensores. Pero, ¿hasta dónde ha llegado la fusión de sensores AV?, ¿cómo la abordan los actores del mercado?
EE Times Europe planteó estas preguntas a Pierrick Boulay, analista de tecnología y mercado de Yole Développement (Lyon, Francia). “E/E [electric/electronic] Las arquitecturas automotrices están evolucionando de arquitecturas distribuidas a arquitecturas centralizadas en dominios”, dijo Boulay. “Hay pasos intermedios”.
El fabricante de automóviles Audi dio sus primeros pasos con los controladores de dominio zFAS en 2016, dijo. Todos los datos de los sensores, incluidas las señales de las cámaras 3D, el radar de largo alcance, el LiDAR y los sensores ultrasónicos, son alimentados y procesados continuamente por el módulo.
“El uso de este tipo de controlador de dominio facilita la fusión de datos”, dice Boulay. Tesla ha adoptado un enfoque similar con su hardware de piloto automático, que “no solo recopila datos de todos los sensores integrados, sino que también controla los sistemas de audio, radiofrecuencia y navegación”.
Como se describe en el proyecto Pristine, una de las claves para desbloquear la autonomía es fusionar e interpretar datos de diferentes sensores para que el sistema pueda ver y comprender el entorno del vehículo de la misma manera que lo haría un conductor humano. Dado que la IA se implementa cada vez más, se espera que todas las empresas que desarrollan algoritmos para analizar cantidades tan grandes de datos dispares encuentren muchas oportunidades, dijo Boulay. Esto también se aplica a las empresas que fabrican chips que procesan datos. La necesidad de poder de cómputo aumenta consistentemente con el nivel de autonomía. Por ejemplo, los automóviles robóticos ya superan las 250 teraoperaciones por segundo, mientras que la capacidad de autoconducción total de Tesla se acerca a los 70 TOPS.
¿Se puede aumentar la potencia informática de forma indefinida? ¿A qué nivel se puede considerar suficiente para un AV completo? Algunas empresas lo hacen, y otras necesitan el doble de potencia informática”, dijo Boulay. “El tiempo dirá dónde están los límites”.
Algunos desafíos están relacionados con el consumo de energía de cómputo y sensores, especialmente en vehículos eléctricos. “El procesamiento de grandes cantidades de datos puede afectar la autonomía de un vehículo eléctrico”, dice Boulay. “La autonomía es una gran preocupación para los clientes, por lo que un sistema autónomo de este tipo debe ser energéticamente eficiente”.
Otro desafío asociado con la fusión de sensores es la capacidad de fusionar datos en diferentes espacios dimensionales, a saber, 2D y 3D. “Esta es una pregunta clave que deben responder los OEM y los Tier One”, dijo Boulay. “LiDAR ahora puede configurar una escena en 3D y usar cámaras y radares para modificar esta escena, colorear la imagen y dar velocidad a los objetos.
“Lograr esto es muy complicado y eso es lo que marca la diferencia entre un líder y un rezagado”.
este artículo Publicado originalmente en la revista hermana EE Times Europe.