La NHTSA concluye la investigación del piloto automático de Tesla después de vincular el sistema con 14 muertes


La Administración Nacional de Seguridad del Tráfico en Carreteras (NHTSA) concluyó una investigación sobre el sistema de asistencia al conductor Autopilot de Tesla después de revisar cientos de accidentes, incluidos 13 incidentes fatales que provocaron 14 muertes. La organización ha descartado que estos accidentes se debieran a un mal uso del sistema por parte del conductor.

Sin embargo, la NHTSA también encontró que «el débil sistema de participación del conductor de Tesla no era apropiado para las capacidades operativas permisivas del piloto automático». En otras palabras, el software no priorizó la atención del conductor. Los pasajeros que utilizaban el piloto automático o la tecnología de conducción autónoma total de la compañía «no estaban lo suficientemente comprometidos» porque Tesla «no se aseguró adecuadamente de que los conductores mantuvieran su atención en la tarea de conducir».

La organización investigó casi 1.000 accidentes desde enero de 2018 hasta agosto de 2023, lo que representó un total de 29 muertes. La NHTSA encontró que había “datos insuficientes para hacer una evaluación” de aproximadamente la mitad (489) de estos accidentes. En algunos incidentes, la otra parte tuvo la culpa o los conductores de Tesla no estaban usando el sistema de piloto automático.

Los más graves fueron 211 accidentes en los que “el plano frontal del Tesla chocó contra un vehículo u obstáculo en su camino” y, a menudo, estuvieron relacionados con el piloto automático o el FSD. Estos incidentes provocaron 14 muertos y 49 heridos graves. La agencia descubrió que los conductores tuvieron tiempo suficiente para reaccionar, pero no lo hicieron, en 78 de estos incidentes. Estos conductores no frenaron ni giraron para evitar el peligro, a pesar de tener al menos cinco segundos para hacer un movimiento.

Aquí es donde entran en juego las quejas contra el software. La NHTSA dice que los conductores simplemente se volverían demasiado complacientes, suponiendo que el sistema pudiera manejar cualquier peligro. Cuando llegó el momento de reaccionar, ya era demasiado tarde. «Se encontraron accidentes sin acción evasiva o sin intento de evasión por parte del conductor en todas las versiones de hardware de Tesla y circunstancias de accidente», escribió la organización. El desequilibrio entre las expectativas del conductor y las capacidades operativas del piloto automático resultó en una «brecha de seguridad crítica» que condujo a «un mal uso previsible y accidentes evitables».

La NHTSA también se ofendió con la marca Autopilot, calificándola de engañosa y sugiriendo que permite a los conductores asumir que el software tiene control total. Con ese fin, las empresas rivales tienden a utilizar marcas con palabras como «asistencia al conductor». Piloto automático indica, bueno, un piloto autónomo. El fiscal general de California y el Departamento de Vehículos Motorizados del estado también están investigando a Tesla por marcas y marketing engañosos.

Tesla, por otro lado, dice que advierte a los clientes que deben prestar atención mientras usan Autopilot y FSD, según El borde. La compañía dice que el software presenta indicadores regulares que recuerdan a los conductores que mantengan las manos en el volante y la vista en la carretera. La NHTSA y otros grupos de seguridad han dicho que estas advertencias no van lo suficientemente lejos y fueron «insuficientes para prevenir el uso indebido». A pesar de estas declaraciones de los grupos de seguridad, el director ejecutivo, Elon Musk, prometió recientemente que la empresa seguirá yendo «hasta la pared por la autonomía».

Los hallazgos solo podrían representar una pequeña fracción del número real de choques y accidentes relacionados con el piloto automático y el FSD. La NHTSA indicó que «las lagunas en los datos telemáticos de Tesla crean incertidumbre con respecto a la tasa real a la que los vehículos que operan con el piloto automático activado se ven involucrados en accidentes». Esto significa que Tesla sólo recibe datos de ciertos tipos de accidentes, y la NHTSA afirma que la compañía recopila datos sobre alrededor del 18 por ciento de los accidentes reportados a la policía.

Con todo esto en mente, la organización ha abierto otra investigación sobre Tesla. Este analiza una reciente solución de software OTA emitida en diciembre después de que se retiraran del mercado dos millones de vehículos. La NHTSA evaluará si la solución de retirada del piloto automático que implementó Tesla es lo suficientemente efectiva.



Source link-47