Suite à une demande de la National Highway Traffic Safety Administration (NHTSA), agence fédérale américaine chargée de la sécurité routière, Tesla va désactiver une fonctionnalité du Full Self-Driving (FSD). Celle-ci permet aux véhicules de franchir lentement un panneau stop sans s’arrêter complètement.
La fonctionnalité permet aux véhicules de griller les stop
La fonctionnalité a été déployée dans le système Full Self-Driving au mois d’octobre dernier. Tesla permet aux conducteurs de choisir entre trois modes de conduite distincts : Chill, Average et Assertive. C’est dans ce dernier mode que la fonction est disponible, celui-ci permettant notamment « d’effectuer des changements de voie plus fréquents, ne pas quitter les voies de dépassement et effectuer des arrêts sur place ».
La NHTSA a pris la décision de demander le retrait de la fonctionnalité car « ne pas s’arrêter à un panneau stop peut augmenter le risque d’accident ». Comme l’explique The Verge, elle « permet aux voitures Tesla de « traverser les carrefours à sens unique à une vitesse pouvant atteindre 5,6 mph (ndlr : 9 km/h) avant de s’arrêter complètement » si certains critères sont remplis. Il faut notamment qu’il n’y ait pas de « voitures en mouvement » ni de « piétons ou de cyclistes » à proximité de l’intersection, que la visibilité soit « suffisante pour le véhicule » et que les routes situées à l’intersection soient limitées à 30 mph (ndlr : 48 km/h) ou moins ».
Or, le fait de ne pas s’arrêter à un panneau stop représente un violation de la loi dans tous les États du pays, ce qui a logiquement entraîné la NHTSA à agir. En incorporant cette fonctionnalité à son système de conduite, Tesla s’est attirée les foudres de plusieurs personnes. Philip Koopman, professeur de génie électrique et informatique à l’université Carnegie Mellon, a ainsi expliqué que les panneaux d’arrêt à quatre voies étaient couramment placés pour protéger les intersections pour les enfants lorsqu’il n’y a pas de brigadier, rapporte Associated Press.
Selon lui, le système de machine learning de Tesla peut identifier des objets par erreur. « Que se passe-t-il lorsque la FSD décide qu’un enfant qui traverse la rue n’est pas « pertinent » et ne s’arrête pas ? C’est un comportement dangereux qui n’aurait jamais dû être mis dans les véhicules », continue-t-il. Pour Jonathan Adkins, directeur exécutif de l’association des gouverneurs pour la sécurité, « [Tesla] ne cesse de repousser les limites de la sécurité pour voir ce qu’ils peuvent faire, et ils ont vraiment poussé très loin. À chaque fois, c’est un peu plus flagrant. Il est bon de voir que la NHTSA riposte ».
De son côté, le constructeur assure ne pas avoir connaissance de blessures ou d’accidents causés par la fonctionnalité concernée.