Nuevo supersensor autónomo que ve en las esquinas y promete cero choques evitables


Acabo de enterarme de que no es del todo culpa nuestra, como Homo sapiens, que provoquemos el 95 por ciento de los accidentes automovilísticos. Eso se debe a que no hemos desarrollado la capacidad fisiológica para ver lo suficientemente lejos y procesar los datos visuales lo suficiente como para eliminar los «accidentes». Aprendí esto cuando una empresa de California llamada Neural Propulsion Systems (NPS) presentó su producto de fusión de sensores AtomicSense Platform, que dice que puede detectar e interpretar suficientes datos para evitar accidentes.

NPS escribió un artículo en el que teorizaba que percibir el entorno lo suficientemente lejos, lo suficientemente claro y lo suficientemente temprano como para eliminar las muertes en las carreteras (es decir, las causadas por accidentes evitables) requiere una tasa de adquisición y procesamiento de datos de 100 terabits por segundo, es decir, 10 millones de veces la tasa estimada. tasa de datos sensoriales que fluyen desde sus ojos hasta su cerebro cuando no está borracho o distraído.

Así que NPS ideó un conjunto de sensores de sistema en chip de estado sólido completo para hacer precisamente eso, aprovechando la investigación del Departamento de Defensa. El sistema AtomicSense incluye muchas cámaras fusionadas con tres avances tecnológicos: radar multibanda digital, lidar de entrada múltiple/salida múltiple (MIMO) y computación de norma atómica.

El radar automotriz de 77 GHz de hoy en día es excelente para penetrar la niebla, pero pinta una imagen súper borrosa de lo que hay ahí fuera, y las gotas de lluvia pueden dispersarla. Sin embargo, el radar a 1 GHz apenas detecta la lluvia, las ondas se difractan para «ver» alrededor de curvas y esquinas, e incluso pueden atravesar algunos materiales sólidos. Un haz enfocado de radar de alta frecuencia brinda una resolución similar a la de un lidar, pero se limita a la línea de visión.

Al emplear cuatro frecuencias de radar, NPS aprovecha todo el potencial del radar y logra una confiabilidad 100 veces mayor que las unidades de radar típicas para automóviles. La transmisión de pulsos digitales de radar prácticamente elimina el riesgo de interferencia de otras señales de radar. Haga clic aquí para obtener una explicación más detallada de cómo ve el radar multihaz en las esquinas.

El lidar MIMO de NPS utiliza una matriz de estado sólido que consta de múltiples emisores y receptores láser, cada uno enfocado en un área pequeña e iluminado brevemente, entre 20 y 100 veces por segundo. Este parpadeo hace que los pulsos de láser de mayor potencia sean seguros para los ojos humanos, lo que permite obtener imágenes claras a más de 540 yardas, aproximadamente el doble del alcance de otros lidars. Mediciones recientes en la pista Crows Landing de la NASA detectaron a un ciclista a una distancia récord de 1,285 pies.

La ardua tarea de fusionar estos abundantes datos de radar y LIDAR con las imágenes de la cámara y darle sentido a todo es donde entra en juego la computación de norma atómica. Este concepto de compresión de datos reduce las mediciones necesarias para lograr el rendimiento de percepción deseado: se desarrolló originalmente para reducir el tiempo que los pacientes tenían que pasar en un tubo de resonancia magnética. AtomicSense divide el mundo escaneado en vóxeles (píxeles tridimensionales) que miden alrededor de 8x8x8 pulgadas. Digitalizar cada bit de ese espacio generaría 6,8 petabits/segundo de datos para procesar, pero en cualquier escena, el 99,0-99,9 por ciento de los vóxeles están vacíos y se pueden ignorar. Esto reduce la carga de trabajo total del flujo de datos a 100 terabits/segundo más manejables.

Al dirigir digitalmente los haces de radar y lidar, el sistema puede «interrogar» más a fondo los vóxeles de interés, aquellos que contienen objetos cerca de la dirección de viaje. Los vóxeles vacíos pueden revisarse 20 veces por segundo, mientras que los ocupados se examinan 100 veces. La computación de norma atómica permite que la plataforma AtomicSense iguale el rendimiento de los conjuntos de sensores convencionales con 1/50 de la potencia de transmisión mientras produce una resolución mucho más alta y muchos más aciertos en el objetivo. Esto le permite percibir de forma fiable a los peatones a 600 metros de distancia.

El conjunto de sensores de la plataforma AtomicSense, anticipado para la producción de 2023, incluye el software para identificar objetos alrededor del vehículo, incluidos objetivos entre automóviles estacionados o alrededor de las esquinas que no se pueden ver. Dependerá de los proveedores o fabricantes de automóviles integrar AtomicSense en un sistema de conducción autónomo, posiblemente aumentando sus capacidades mediante la fusión de datos de mapas de alta definición, comunicaciones V2V o V2X, etc. Los precios (y el factor de forma) evolucionarán para adaptarse a los vehículos privados. , no solo robotaxis y camiones pesados.

El mundo ha echado un buen vistazo a la «autoconducción total» informada únicamente por las cámaras; Sé que me sentiré 10 millones de veces más cómodo con AtomicSense procesando 100 TB de datos triplemente redundantes.



Source link-51