El Autopilot de Tesla es un sistema de asistencia a la conducción que ha sido elogiado por su capacidad para permitir una experiencia de manejo más cómoda y segura. Sin embargo, su implementación no está exenta de controversias, ya que se han reportado varios accidentes en los que este sistema podría haber estado involucrado.
En marzo de 2023, un estudiante de Carolina del Norte fue atropellado por un Tesla Model Y que circulaba a alta velocidad mientras descendía de un autobús escolar. El conductor del Tesla utilizaba el sistema de asistencia al conductor Autopilot, una tecnología que Elon Musk ha promocionado como un paso hacia los vehículos totalmente autónomos. El incidente, que resultó en lesiones graves para el joven de 17 años, ha reavivado el debate sobre la seguridad de estas tecnologías avanzadas.
La Administración Nacional de Seguridad del Tráfico en las Carreteras de EE. UU. (NHTSA, por sus siglas en inglés) ha llevado a cabo una investigación exhaustiva, revisando 956 accidentes desde enero de 2018 hasta agosto de 2023, en los que estuvieron implicados vehículos Tesla utilizando el Autopilot o su versión más avanzada, Full Self-Driving (FSD). De estos, se registraron 29 fallecimientos y múltiples incidentes con heridos graves.
El patrón que emerge de la investigación de la NHTSA es alarmante: una combinación de la inatención del conductor y las deficiencias del sistema Autopilot. A menudo, los conductores no estaban suficientemente involucrados en la tarea de conducir, lo que llevó a accidentes por no reaccionar a tiempo ante obstáculos visibles. En 59 accidentes, los conductores tenían cinco segundos o más para reaccionar antes de la colisión, pero no tomaron medidas evasivas adecuadas.
Además, la NHTSA critica el diseño de Autopilot de Tesla por desalentar la intervención activa del conductor en la conducción, a diferencia de otros sistemas de nivel 2 (L2) de la competencia, que promueven una mayor interacción conductor-vehículo. La propia denominación «Autopilot» ha sido señalada como engañosa, sugiriendo una capacidad de conducción autónoma que no se corresponde con la realidad, llevando a una falsa sensación de seguridad entre los usuarios.
Este análisis ha motivado no solo una mayor supervisión por parte de las autoridades, sino también una respuesta de Tesla, que incluyó una actualización de software destinada a incrementar las advertencias al usar Autopilot. Sin embargo, tras críticas sobre su eficacia, la NHTSA ha iniciado una nueva investigación sobre esta medida.