El piloto automático de Tesla era excepcionalmente riesgoso y puede seguir siéndolo


Un informe federal publicado hoy encontró que el sistema de piloto automático de Tesla estuvo involucrado en al menos 13 accidentes fatales en los que los conductores hicieron un mal uso del sistema en formas que el fabricante de automóviles debería haber previsto y haber hecho más para prevenir. No sólo eso, sino que el informe calificó a Tesla de “atípico en la industria” porque sus funciones de asistencia al conductor carecían de algunas de las precauciones básicas tomadas por sus competidores. Ahora los reguladores se preguntan si una actualización del piloto automático de Tesla diseñada para solucionar estos problemas básicos de diseño y prevenir incidentes fatales ha llegado lo suficientemente lejos.

Estos accidentes fatales mataron a 14 personas e hirieron a 49, según datos recopilados y publicados por la Administración Nacional de Seguridad del Tráfico en las Carreteras, el regulador federal de seguridad vial en Estados Unidos.

Al menos la mitad de los 109 accidentes de «avión frontal» examinados de cerca por ingenieros del gobierno (aquellos en los que un Tesla chocó contra un vehículo u obstáculo directamente en su camino) involucraron peligros visibles cinco segundos o más antes del impacto. Es tiempo suficiente para que un conductor atento hubiera podido prevenir o al menos evitar lo peor del impacto, concluyeron los ingenieros del gobierno.

En uno de esos accidentes, ocurrido en marzo de 2023 en Carolina del Norte, un Modelo Y que viajaba a velocidad de autopista atropelló a un adolescente mientras salía de un autobús escolar. El adolescente fue trasladado en avión a un hospital para tratar sus graves heridas. La NHTSA concluyó que “tanto el autobús como el peatón habrían sido visibles para un conductor atento y le habrían permitido evitar o minimizar la gravedad de este accidente”.

Los ingenieros del gobierno escribieron que, a lo largo de su investigación, “observaron una tendencia de choques evitables que implicaban peligros que habrían sido visibles para un conductor atento”.

Tesla, que disolvió su departamento de asuntos públicos en 2021, no respondió a una solicitud de comentarios.

Lamentablemente, el informe calificó a Tesla como “un caso atípico en la industria” en su enfoque de los sistemas de conducción automatizados. A diferencia de otras compañías automotrices, dice el informe, Tesla permitió que Autopilot funcionara en situaciones para las que no fue diseñado y no logró vincularlo con un sistema de participación del conductor que requería que sus usuarios prestaran atención a la carretera.

Los reguladores concluyeron que incluso el nombre del producto Autopilot era un problema, lo que animaba a los conductores a confiar en el sistema en lugar de colaborar con él. Los competidores automotrices a menudo usan lenguaje de «asistencia», «detección» o «equipo», según el informe, específicamente porque estos sistemas no están diseñados para conducirse completamente por sí solos.

El año pasado, los reguladores del estado de California acusaron a Tesla de publicitar falsamente sus sistemas Autopilot y Full Self-Driving, alegando que Tesla engañó a los consumidores haciéndoles creer que los autos podían conducirse solos. En una presentación, Tesla dijo que el hecho de que el estado no se opusiera a la marca Autopilot durante años constituía una aprobación implícita de la estrategia publicitaria del fabricante de automóviles.

La investigación de la NHTSA también concluyó que, en comparación con los productos de la competencia, Autopilot se resistía cuando los conductores intentaban conducir sus vehículos ellos mismos; un diseño, escribió la agencia en su resumen de una investigación de casi dos años sobre Autopilot, que desalienta a los conductores a participar en el trabajo de conducción.

Una nueva sonda de piloto automático

Estos accidentes ocurrieron antes de que Tesla retirara y actualizara su software Autopilot mediante una actualización inalámbrica a principios de este año. Pero además de cerrar esta investigación, los reguladores también han abierto una nueva investigación sobre si las actualizaciones de Tesla, impulsadas en febrero, hicieron lo suficiente para evitar que los conductores hicieran un mal uso del piloto automático, no comprendieran cuándo la función estaba realmente en uso o la usaran en lugares donde no estaba disponible. no está diseñado para funcionar.

La revisión se produce después de que un conductor del estado de Washington dijera la semana pasada que su Tesla Model S estaba en piloto automático (mientras usaba su teléfono) cuando el vehículo atropelló y mató a un motociclista.



Source link-46