El Autopilot de Tesla sigue creando confusión entre los conductores, según IIHS

Según los resultados de una encuesta realizada por el IIHS, sigue habiendo confusión entre los conductores con las capacidades del Autopilot de Tesla. Su nombre tiene la culpa.

2018012508194017457.jpg
2018012508194017457.jpg
21/06/2019 16:26
Actualizado a 30/06/2019 18:43

¿Son adecuados los nombres que los fabricantes ponen a sus sistemas de ayuda a la conducción? Según una encuesta realizada por el IIHS (Insurance Institute for Highway Safety) estadounidense a más de 2.000 conductores, las conclusiones son claras: la mayoría de ellos sigue sin tener claro hasta qué punto son capaces los "pilotos automáticos" de hacer lo que, a priori, prometen. La encuesta pone de manifiesto que muchos conductores malinterpretan la tecnología del Autopilot de Tesla, delegando en el sistema más responsabilidad de la que puede asumir.

La mayoría cree que es seguro retirar las manos de volante y leer un libro

Al ser preguntados por el Autopilot de Tesla, el 48% de los encuestados cree que es seguro retirar las manos del volante mientras utiliza el sistema. Además, la mayoría de estos últimos consideran que es seguro ir mirando el paisaje, leyendo un libro o usando el teléfono móvil mientras el sistema está activado. El 6% piensa incluso que sería seguro dormir una siesta. 

Según el IIHS, "los nombres que los fabricantes usan para estos sistemas están enviando mensajes equivocados a los conductores sobre cuán atentos a la conducción deberían estar", provocando que la gente esté "malinterpretando los términos y asumiendo que [los sistemas de tecnología de ayuda a la conducción] pueden hacer más de lo que realmente pueden". Esto puede tener un efecto contraproducente, pues un asistente a la conducción que cree confusión puede generar riesgos nuevos e innecesarios.

Los resultados extraídos de la encuesta no sólo apuntan al Autopilot de Tesla (cuya traducción literal es 'piloto automático'), también a otros sistemas de asistencia como el ProPilot Assist de Nissan, el Super Cruise de Cadillac (que se anuncia como un sistema de "conducción manos libres") y el Driving Assistant Plus de BMW.

El presidente del IIHS, David Harkey, aseguró que el Autopilot de Tesla no pretende ser un sistema manos-libres y "aunque Tesla lo deja muy claro en el manual, ese mensaje no llega a todos los usuarios". Una prueba de ello está en el conductor de un Tesla Model 3 que murió en un accidente cuando el vehículo, llevando activado el piloto automático, se estrelló contra el remolque de un camión en Florida. Según Tesla, el sistema no había detectado las manos en el volante en los ocho segundos anteriores al impacto.

Información poco clara en las pantallas

Otra conclusión extraída de esta encuesta es que, en general, los conductores no entienden bien la información del sistema de asistencia a la conducción que se presenta en las pantallas. La mayoría de los encuestados reconoce que no entiende lo que está sucediendo en el sistema cuando este no detecta un coche que va por delante. Según el IIHS, "aunque los sistemas deberían ser intuitivos, proporcionar una orientación en el concesionario también podría ayudar".

El IIHS asegura que es fundamental mostrar información clara sobre "la forma en que realmente funciona el sistema" mientras este está activo. Además, desde la reputada institución estadounidense dan un toque de atención a las marcas: "queremos que los fabricantes entiendan que tiene que haber formas de informar al conductor sobre por qué, teniendo activado el sistema, este puede permanecer inactivo temporalmente por algún motivo".

Sobre la firma
foto Diego Gutierrez
Diego Gutiérrez

Redactor y probador de Híbridos y Eléctricos, desde 2019 cubriendo la actualidad del sector de los vehículos eléctricos y la movilidad sostenible.