Tesla enfrenta nuevas investigaciones sobre muertes de motociclistas y publicidad engañosa


Agrandar / Elon Musk dijo en junio que sin la tecnología de conducción autónoma, Tesla «básicamente no vale nada».

Tesla comenzó el fin de semana con un nuevo par de dolores de cabeza. El viernes, Associated Press informó que el gobierno federal está investigando si el sistema de piloto automático de la compañía puede o no reconocer a los motociclistas de manera segura después de un par de accidentes fatales en julio. Y Los Angeles Times informó que California no está contenta con la forma en que el fabricante de automóviles ha anunciado sus tecnologías de asistencia al conductor Autopilot y Full Self-Driving.

¿Puede Autopilot ver motos por la noche?

El primer accidente fatal ocurrió en la madrugada del 7 de julio en Riverside, California, cuando un Tesla Model Y en la ruta estatal 91 golpeó una motocicleta por detrás, matando a su conductor. El segundo accidente fatal de motocicleta ocurrió el 24 de julio, nuevamente por la noche, esta vez en la I-15 en las afueras de Draper, Utah. En ese caso, un Tesla Model 3 conducía detrás de una motocicleta y la golpeó, matando al conductor.

La AP informa que la Patrulla de Carreteras de California todavía está investigando si el piloto automático estaba activo en el primer accidente, pero el conductor en Utah admitió que estaba usando la asistencia al conductor en el momento del accidente.

Los investigadores de la Administración Nacional de Seguridad del Tráfico en las Carreteras viajaron a ambos lugares del accidente; según AP, la NHTSA «sospecha que el sistema de asistencia al conductor parcialmente automatizado de Tesla estaba en uso en cada caso».

La Oficina de Investigación de Defectos de la NHTSA ya está investigando el Autopilot después de al menos 11 accidentes en los que los automóviles Tesla, que operaban con Autopilot, chocaron contra vehículos de emergencia después de no reconocerlos. También se está llevando a cabo una segunda investigación de la NHTSA para determinar si la eliminación del sensor de radar con visión de futuro en los Tesla más nuevos es la causa de un problema de «frenado fantasma» que ha dado lugar a cientos de quejas ante el regulador.

La falta de un radar con visión de futuro y la dependencia exclusiva de las cámaras bien pueden ser un factor en estos dos accidentes fatales, aunque se ha demostrado que incluso los sistemas de control de crucero adaptativo menos controvertidos tienen problemas con las motocicletas si conducen cerca del borde. de un carril.

marketing engañoso

Mientras tanto, el Departamento de Vehículos Motorizados de California presentó un par de quejas ante la Oficina de Audiencias Administrativas del estado. Las quejas dicen que las declaraciones de Tesla que describen el piloto automático y la característica más controvertida de conducción autónoma total han sido «falsas o engañosas, y no se basan en hechos».

Como ejemplo, las quejas citan una declaración en la página web del piloto automático de Tesla que afirma que con la conducción autónoma total:

[a]Todo lo que tendrá que hacer es entrar y decirle a su automóvil adónde ir. Si no dice nada, su automóvil mirará su calendario y lo llevará allí como el destino supuesto. Su Tesla determinará la ruta óptima, navegando por calles urbanas, intersecciones complejas y autopistas.

Como señala el DMV, ningún Tesla (ni ningún otro automóvil a la venta hoy en día) puede operar de forma autónoma.

Esta no es la primera vez que el marketing de Tesla ha sido llamado engañoso. En 2016, el ministerio de transporte alemán le dijo a la empresa que dejara de usar el término «piloto automático» en su publicidad, y en 2019, la NHTSA le dijo a Tesla que dejara de usar declaraciones engañosas o incorrectas sobre la seguridad de sus autos.



Source link-49