El Autopilot de Tesla vinculado a cientos de accidentes y decenas de muertes

El Autopilot de Tesla es un sistema de asistencia a la conducción que ha sido elogiado por su capacidad para permitir una experiencia de manejo más cómoda y segura. Sin embargo, su implementación no está exenta de controversias, ya que se han reportado varios accidentes en los que este sistema podría haber estado involucrado.

En marzo de 2023, un estudiante de Carolina del Norte fue atropellado por un Tesla Model Y que circulaba a alta velocidad mientras descendía de un autobús escolar. El conductor del Tesla utilizaba el sistema de asistencia al conductor Autopilot, una tecnología que Elon Musk ha promocionado como un paso hacia los vehículos totalmente autónomos. El incidente, que resultó en lesiones graves para el joven de 17 años, ha reavivado el debate sobre la seguridad de estas tecnologías avanzadas.

La Administración Nacional de Seguridad del Tráfico en las Carreteras de EE. UU. (NHTSA, por sus siglas en inglés) ha llevado a cabo una investigación exhaustiva, revisando 956 accidentes desde enero de 2018 hasta agosto de 2023, en los que estuvieron implicados vehículos Tesla utilizando el Autopilot o su versión más avanzada, Full Self-Driving (FSD). De estos, se registraron 29 fallecimientos y múltiples incidentes con heridos graves.

El patrón que emerge de la investigación de la NHTSA es alarmante: una combinación de la inatención del conductor y las deficiencias del sistema Autopilot. A menudo, los conductores no estaban suficientemente involucrados en la tarea de conducir, lo que llevó a accidentes por no reaccionar a tiempo ante obstáculos visibles. En 59 accidentes, los conductores tenían cinco segundos o más para reaccionar antes de la colisión, pero no tomaron medidas evasivas adecuadas.

Además, la NHTSA critica el diseño de Autopilot de Tesla por desalentar la intervención activa del conductor en la conducción, a diferencia de otros sistemas de nivel 2 (L2) de la competencia, que promueven una mayor interacción conductor-vehículo. La propia denominación «Autopilot» ha sido señalada como engañosa, sugiriendo una capacidad de conducción autónoma que no se corresponde con la realidad, llevando a una falsa sensación de seguridad entre los usuarios.

Este análisis ha motivado no solo una mayor supervisión por parte de las autoridades, sino también una respuesta de Tesla, que incluyó una actualización de software destinada a incrementar las advertencias al usar Autopilot. Sin embargo, tras críticas sobre su eficacia, la NHTSA ha iniciado una nueva investigación sobre esta medida.

Fuente

Las últimas noticias en nuestro podcast semanal

Comentarios

No hay comentarios aún. ¿Por qué no comienzas el debate?

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.