El anuncio del New York Times advierte contra la "autoconducción total" de Tesla

El anuncio del New York Times advierte contra la “autoconducción total” de Tesla

Un anuncio de página completa en el New York Times del domingo apuntó al software de “autoconducción completa” de Tesla, llamándolo “el peor software jamás vendido por una compañía Fortune 500” y ofreciendo $ 10,000, el mismo precio que el software en sí mismo a la primera persona. quien podría nombrar “otro producto comercial de una compañía Fortune 500 que tiene un mal funcionamiento crítico cada 8 minutos”.

El anuncio fue realizado por The Dawn Project, una organización fundada recientemente que tiene como objetivo prohibir el software inseguro de los sistemas críticos de seguridad que pueden ser atacados por piratas informáticos de estilo militar, como parte de una campaña para eliminar la conducción autónoma total (FSD) de Tesla del público. carreteras hasta que tenga “1.000 veces menos averías críticas”.

El fundador del grupo de defensa, Dan O’Dowd, también es el director ejecutivo de Green Hill Software, una empresa que crea sistemas operativos y herramientas de programación para sistemas integrados de seguridad y protección. En el CES, la compañía dijo El vehículo iX de BMW está utilizando su sistema operativo en tiempo real y otro software de seguridad, y también anunció la disponibilidad de su nuevo producto de software por aire y servicios de datos para sistemas electrónicos automotrices.

A pesar del posible sesgo competitivo del fundador de The Dawn Project, el software beta FSD de Tesla, un sistema avanzado de asistencia al conductor al que los propietarios de Tesla pueden acceder para manejar algunas funciones de conducción en las calles de la ciudad, ha sido objeto de escrutinio en los últimos meses después de una serie de videos de YouTube que mostraban Las fallas en el sistema se volvieron virales.

El anuncio del NYT llega pocos días después de que el Departamento de Vehículos Motorizados de California le dijera a Tesla que sería “revisando” su opinión que el programa de prueba de la compañía, que utiliza consumidores y no operadores de seguridad profesionales, no se rige por las regulaciones de vehículos autónomos del departamento. El DMV de California regula las pruebas de manejo autónomo en el estado y requiere que otras compañías como Waymo y Cruise que están desarrollando, probando y planeando implementar taxis robotizados informen accidentes y fallas del sistema llamadas “desenganches”. Tesla nunca ha emitido esos informes.

El CEO de Tesla, Elon Musk, desde entonces respondió vagamente en Twitter, afirmando que el FSD de Tesla no ha provocado accidentes ni lesiones desde su lanzamiento. La Administración Nacional de Seguridad del Tráfico en las Carreteras de EE. UU. (NHTSA) es investigando un informe del propietario de un Tesla Model Y, quien informó que su vehículo entró en el carril equivocado mientras giraba a la izquierda en modo FSD, lo que provocó que otro conductor golpeara el vehículo.

Incluso si ese fue el primer accidente de FSD, el piloto automático de Tesla, el ADAS del fabricante de automóviles que viene de serie en los vehículos, ha estado involucrado en alrededor de una docena de accidentes.

Junto al anuncio del NYT, The Dawn Project publicó un revisión de hechos de sus pretensiones, refiriéndose a su propio análisis de seguridad FSD que estudió datos de 21 videos de YouTube por un total de siete horas de tiempo de conducción.

Los videos analizados incluyeron las versiones beta 8 (publicada en diciembre de 2020) y 10 (publicada en septiembre de 2021), y el estudio evitó videos con títulos significativamente positivos o negativos para reducir el sesgo. Cada video se calificó de acuerdo con la Evaluación de rendimiento del conductor del DMV de California, que es lo que los conductores humanos deben aprobar para obtener una licencia de conducir. Para aprobar un examen de manejo, los conductores en California deben tener 15 o menos errores de maniobra de puntuación, como no usar las señales de giro al cambiar de carril o mantener una distancia segura de otros vehículos en movimiento, y cero errores críticos de manejo, como chocar o pasarse una luz roja .

El estudio encontró que FSD v10 cometió 16 errores de maniobra de puntuación en promedio en menos de una hora y un error de conducción crítico cada 8 minutos. Hubo una mejora en los errores durante los nueve meses entre v8 y v10, encontró el análisis, pero al ritmo actual de mejora, “tomará otros 7,8 años (según datos de AAA) a 8,8 años (según datos de la Oficina de Transporte) para lograr la tasa de accidentes de un conductor humano”.

El anuncio de The Dawn Project hace algunas afirmaciones audaces que deben tomarse con cautela, particularmente porque el tamaño de la muestra es demasiado pequeño para tomarlo en serio desde un punto de vista estadístico. Sin embargo, si las siete horas de metraje son realmente representativas de una unidad FSD promedio, los hallazgos podrían ser indicativos de un problema mayor con el software FSD de Tesla y responder a la pregunta más amplia de si se le debe permitir a Tesla probar este software en la vía pública. sin regulación.

“No nos inscribimos para que nuestras familias fueran maniquíes de pruebas de choque para miles de autos Tesla que circulan por las vías públicas…”, dice el anuncio.

Los reguladores federales han comenzado a tomar medidas contra Tesla y sus sistemas de software beta Autopilot y FSD.

En octubre, la NHTSA envió dos cartas al fabricante de automóviles dirigidas al uso de acuerdos de confidencialidad para los propietarios que obtienen acceso temprano a la versión beta de FSD, así como la decisión de la compañía de usar actualizaciones de software inalámbricas para solucionar un problema en el sistema de piloto automático estándar que debería haber sido un retiro. Además, Consumer Reports emitió un comunicado durante el verano diciendo que la actualización del software de la versión 9 de FSD no parecía ser lo suficientemente segura para las vías públicas y que probaría el software de forma independiente. La semana pasada, la organización publicó los resultados de sus pruebas., que reveló que “el sistema de monitoreo del conductor basado en cámaras de Tesla no logra mantener la atención del conductor en la carretera”. CR descubrió que el BlueCruise de Ford, por otro lado, emite alertas cuando los ojos del conductor están desviados.

Desde entonces, Tesla ha lanzado muchas versiones diferentes de su software v10: la 10.9 debería estar aquí en cualquier momento, y la versión 11 con “pila de software para una sola ciudad/carretera” y “muchas otras actualizaciones arquitectónicas” saldrá en febrero. según el director ejecutivo Elon Musk.

Las revisiones de la última versión 10.8 están sesgadas, con algunos comentaristas en línea que dicen que es mucho más suave, y muchos otros afirman que no se sienten seguros al usar la tecnología en absoluto. Un hilo que revisa la versión más reciente de FSD en el Tesla Motors subreddit page muestra a los propietarios que comparten quejas sobre el software, y uno incluso escribe: “Definitivamente aún no está listo para el público en general…”

Otro comentarista dijo que el automóvil tardó demasiado en girar a la derecha en “una carretera recta completamente vacía… Luego tuvo que girar a la izquierda y siguió vacilando sin razón, bloqueando el carril que se aproximaba, para luego acelerar repentinamente una vez que había llegado a la siguiente calle, seguida de una desaceleración tan repentina porque cambió de opinión sobre la velocidad y ahora pensaba que una carretera de 45 mph era 25 mph”.

El conductor dijo que eventualmente tuvo que desconectarse por completo porque el sistema ignoró por completo un próximo giro a la izquierda, uno que ocurriría en una intersección estándar “con luces y visibilidad clara en todas las direcciones y sin otro tráfico”.

La campaña del Proyecto Amanecer destaca una advertencia de Tesla de que su FSD “puede hacer algo incorrecto en el peor momento”.

“¿Cómo puede alguien tolerar un producto crítico para la seguridad en el mercado que puede hacer lo incorrecto en el peor momento”, dijo el grupo de defensa. “¿No es esa la definición de defectuoso? La conducción autónoma total debe eliminarse de nuestras carreteras de inmediato”.

Ni Tesla ni The Dawn Project pudieron ser contactados para hacer comentarios.




Source link