YouTube elimina el video que prueba la versión beta de conducción autónoma completa de Tesla contra niños reales


YouTube eliminó un video que muestra a los conductores de Tesla realizando sus propias pruebas de seguridad para determinar si las capacidades de conducción autónoma total (FSD) del EV (vehículo eléctrico) harían que se detuviera automáticamente para los niños que cruzan o se paran en la carretera. como informó por primera vez CNBC.

los video, titulado «¿Tesla Full-Self Driving Beta realmente atropella a los niños?» fue publicado originalmente en Canal de YouTube de Whole Mars Catalog e involucra al propietario e inversionista de Tesla, Tad Park, probando la función FSD de Tesla con sus propios hijos. Durante el video, Park conduce un Tesla Model 3 hacia uno de sus hijos que está parado en la calle y luego lo intenta de nuevo con su otro hijo cruzando la calle. El vehículo se detiene antes de alcanzar a los niños en ambas ocasiones.

Como se indica en su página de soporte, YouTube tiene reglas específicas contra el contenido que «pone en peligro el bienestar emocional y físico de los menores», incluidas las «acrobacias, desafíos o bromas peligrosas». La portavoz de YouTube, Ivy Choi, dijo el borde que el video violó sus políticas contra contenido nocivo y peligrosoy que la plataforma “no permite contenido que muestre a un menor participando en actividades peligrosas o animando a menores a realizar actividades peligrosas”. Choi dice que YouTube decidió eliminar el video como resultado.

“Ya probé FSD beta antes, y confiaría en ellos la vida de mis hijos”, dice Park durante el video ahora eliminado. “Así que estoy muy seguro de que detectará a mis hijos, y también tengo el control de la rueda para poder frenar en cualquier momento”, dijo Park a CNBC que el automóvil nunca viajaba a más de ocho millas por hora. y “se aseguró de que el auto reconociera al niño”.

El 18 de agosto, el video tenía más de 60.000 visitas en YouTube. El video también se publicó en Twitter y aún está disponible para verlo. el borde Se comunicó con Twitter para ver si tiene algún plan para eliminarlo, pero no recibió respuesta de inmediato.

La loca idea de probar la FSD con niños reales, que viven y respiran surgido después un video y campaña publicitaria publicado en Twitter mostró que los vehículos Tesla aparentemente no detectaron y chocaron con maniquíes del tamaño de un niño colocados frente al vehículo. Los fanáticos de Tesla no lo estaban comprando, lo que provocó un debate sobre las limitaciones de la función en Twitter. Whole Mars Catalog, un canal de Twitter y YouTube impulsado por EV dirigido por el inversionista de Tesla Omar Qazi, más tarde insinuó la creación de un video involucrando a niños reales en un intento de probar que los resultados originales son erróneos.

En respuesta al video, la Administración Nacional de Seguridad del Tráfico en las Carreteras (NHTSA, por sus siglas en inglés) emitió una declaración que advierte contra el uso de niños para probar la tecnología de conducción automatizada. “Nadie debe arriesgar su vida, ni la vida de nadie más, para probar el rendimiento de la tecnología del vehículo”, dijo la agencia Bloomberg. “Los consumidores nunca deben intentar crear sus propios escenarios de prueba o usar personas reales, y especialmente niños, para probar el rendimiento de la tecnología del vehículo”.

El software FSD de Tesla no hace que un vehículo sea completamente autónomo. Está disponible para los conductores de Tesla. por $12,000 adicionales (o $ 199 / suscripción mensual). Una vez que Tesla determina que un conductor cumple con una cierta puntuación de seguridad, desbloquea el acceso a la versión beta de FSD, lo que permite a los conductores ingresar un destino y hacer que el vehículo conduzca hasta allí usando Autopilot, el sistema avanzado de asistencia al conductor (ADAS) del vehículo. Los conductores aún deben mantener sus manos en el volante y estar listos para tomar el control en cualquier momento.

A principios de este mes, el El DMV de California acusó a Tesla de hacer afirmaciones falsas sobre piloto automático y FSD. La agencia alega que los nombres de ambas características, así como la descripción que hace Tesla de ellas, implican erróneamente que permiten que los vehículos funcionen de forma autónoma.

En junio, la NHTSA publicó datos sobre accidentes de asistencia al conductor por primera vez, y descubrió que los vehículos Tesla que usaban vehículos con piloto automático estuvieron involucrados en 273 accidentes desde el 20 de julio de 2021 hasta el 21 de mayo de 2022. La NHTSA está investigando actualmente una serie de incidentes donde los vehículos Tesla que utilizan tecnología de asistencia al conductor chocó con vehículos de emergencia estacionadosademás de más de dos docenas de accidentes de Teslaalgunos de los cuales han sido fatales.

Actualización 20 de agosto, 2:10 p. m. ET: Actualizado para agregar una declaración y contexto adicional de un portavoz de YouTube.





Source link-37