La investigación del piloto automático de Tesla se cerró después de que los federales encontraran 13 accidentes fatales relacionados con el uso indebido


La Administración Nacional de Seguridad del Tráfico en Carreteras cerró una investigación de larga data sobre el sistema de asistencia al conductor Autopilot de Tesla después de revisar cientos de accidentes relacionados con su mal uso, incluidos 13 que fueron fatales y «muchos más con lesiones graves».

Al mismo tiempo, la NHTSA está abriendo una nueva investigación para evaluar si la solución de retiro del piloto automático que Tesla implementó en diciembre es lo suficientemente efectiva.

La Oficina de Investigación de Defectos de la NHTSA dijo en documentos publicados el viernes que completó «un extenso trabajo» que arrojó evidencia de que «el débil sistema de participación del conductor de Tesla no era apropiado para las capacidades operativas permisivas del piloto automático».

«Este desajuste resultó en una brecha de seguridad crítica entre las expectativas de los conductores sobre [Autopilot’s] capacidades operativas y las verdaderas capacidades del sistema”, escribió la agencia. «Esta brecha provocó un mal uso previsible y accidentes evitables».

El cierre de la investigación inicial, que comenzó en 2021, marca el final de uno de los esfuerzos más visibles del gobierno para examinar el software Autopilot de Tesla. Sin embargo, Tesla todavía siente la presión de muchas otras investigaciones.

El Departamento de Justicia también está investigando las afirmaciones de la compañía sobre la tecnología, y el Departamento de Vehículos Motorizados de California ha acusado a Tesla de publicitar falsamente las capacidades del piloto automático y el software beta más avanzado de conducción autónoma total. La empresa también enfrenta múltiples demandas relacionadas con Autopilot. Mientras tanto, Tesla ahora está «contra la pared por la autonomía», según el director ejecutivo, Elon Musk.

La NHTSA dijo que su investigación revisó 956 accidentes reportados hasta el 30 de agosto de 2023. En aproximadamente la mitad (489) de ellos, la agencia dijo que “no había datos suficientes para hacer una evaluación”, que el otro vehículo tuvo la culpa, se descubrió que el piloto automático no estaba en uso o el accidente no estaba relacionado con la sonda.

La NHTSA dijo que los 467 accidentes restantes se dividieron en tres grupos. Hubo muchos (211) choques en los que “el plano frontal del Tesla chocó contra otro vehículo u obstáculo con el tiempo adecuado para que un conductor atento respondiera para evitar o mitigar el choque. Dijo que 145 accidentes involucraron “salidas de la carretera en condiciones de baja tracción, como carreteras mojadas”. Y dijo que 111 de los choques involucraron “desvíos de la carretera donde Autosteer fue desconectado inadvertidamente por las acciones del conductor”.

Estos choques “a menudo son graves porque ni el sistema ni el conductor reaccionan adecuadamente, lo que resulta en una alta diferencia de velocidad y resultados de choques de alta energía”, escribió la agencia.

Tesla les dice a los conductores que deben prestar atención a la carretera y mantener las manos en el volante mientras usan el piloto automático, que mide a través de un sensor de torsión y, en sus autos más nuevos, la cámara en la cabina. Pero la NHTSA y otros grupos de seguridad han dicho que estas advertencias y controles no son suficientes. En diciembre, la NHTSA dijo que estas medidas eran “insuficientes para prevenir el uso indebido”.

Tesla acordó retirar el producto mediante una actualización de software que, en teoría, aumentaría la supervisión del conductor. Pero esa actualización realmente no pareció cambiar mucho el piloto automático, un sentimiento con el que la NHTSA parece estar de acuerdo.

Partes de esa solución de retiro requieren que el «propietario opte por participar», y Tesla permite que un conductor «revierta fácilmente» algunas de las salvaguardas, según la NHTSA.

La NHTSA pasó casi tres años trabajando en la investigación sobre el piloto automático y se reunió o interactuó con Tesla en numerosas ocasiones durante el proceso. Realizó muchos exámenes directos de los accidentes y confió en que la empresa también proporcionara datos sobre ellos.

Pero la agencia criticó los datos de Tesla en uno de los documentos de respaldo.

“Las lagunas en los datos telemáticos de Tesla crean incertidumbre con respecto a la tasa real a la que los vehículos que operan con el piloto automático activado se ven involucrados en accidentes. Tesla no está al tanto de todos los accidentes que involucran el piloto automático, ni siquiera los más graves, debido a lagunas en los informes telemáticos”, escribió la NHTSA. Según la agencia, Tesla «recibe en gran medida datos de choques sólo con el despliegue pirotécnico», es decir, cuando se activan las bolsas de aire, los pretensores de los cinturones de seguridad o la función de mitigación de impacto de peatones del capó del automóvil.

La NHTSA afirma que limitarse a este nivel significa que Tesla sólo recopila datos sobre alrededor del 18% de los accidentes que se informan a la policía. Como resultado, la NHTSA escribió que la investigación descubrió accidentes en los que se activó el piloto automático y de los que Tesla no fue notificado vía telemática.



Source link-48