[ad_1]
Tesla a déclaré qu’il rappellerait 3 62 000 véhicules américains pour mettre à jour son logiciel bêta Full Self-Driving (FSD) après que les régulateurs américains ont déclaré jeudi que le système d’assistance à la conduite ne respectait pas correctement les lois sur la sécurité routière et pouvait provoquer des accidents.
La National Highway Traffic Safety Administration a déclaré que le logiciel Tesla permet à un véhicule de « dépasser les limites de vitesse ou de traverser des intersections de manière illégale ou imprévisible, ce qui augmente le risque d’accident ».
Tesla publiera gratuitement une mise à jour logicielle en direct (OTA), et le constructeur de véhicules électriques a déclaré qu’il n’était au courant d’aucune blessure ou décès pouvant être lié au problème de rappel. Le constructeur automobile a déclaré qu’il avait 18 demandes de garantie.
Les actions de Tesla ont baissé de 1,6 % à 210,76 $ (près de 17 420 roupies) jeudi après-midi.
Le rappel concerne les véhicules Model S 2016-2023, Model X, Model 3 2017-2023 et Model Y 2020-2023 équipés du logiciel FSD Beta ou en attente d’installation.
La NHTSA a demandé à Tesla de rappeler les véhicules, mais la société a déclaré que malgré le rappel, elle n’était pas d’accord avec l’analyse de la NHTSA. Cette décision est une intervention rare des régulateurs fédéraux dans un programme de test en situation réelle que la société considère comme crucial pour le développement de voitures capables de se conduire elles-mêmes. FSD Beta est utilisé par des millions de clients Tesla.
Le revers de l’effort de conduite automatisée de Tesla survient environ deux semaines avant la journée des investisseurs de la société le 1er mars, au cours de laquelle le directeur général Elon Musk devrait promouvoir la capacité d’intelligence artificielle du fabricant de véhicules électriques et prévoit d’élargir sa gamme de véhicules.
Tesla n’a pas pu être joint dans l’immédiat pour un commentaire.
La NHTSA a une enquête en cours qu’elle a ouverte en 2021 sur 8,30 000 véhicules Tesla avec système d’assistance au conducteur Autopilot sur une série d’accidents avec des véhicules d’urgence en stationnement. La NHTSA examine si les véhicules Tesla garantissent de manière adéquate que les conducteurs sont attentifs. La NHTSA a déclaré jeudi malgré le rappel de la FSD que « l’enquête sur le pilote automatique de Tesla et les systèmes de véhicules associés reste ouverte et active ».
Tesla a déclaré que dans « certaines circonstances rares, la fonctionnalité pourrait potentiellement enfreindre le code de la route ou les coutumes locales lors de l’exécution de certaines manœuvres de conduite ».
Les situations possibles où le problème pourrait survenir incluent le déplacement ou le virage à certaines intersections pendant un feu jaune et le fait de changer de voie hors de certaines voies réservées aux virages pour continuer à rouler tout droit, a déclaré la NHTSA.
La NHTSA a déclaré que « le système peut ne pas répondre suffisamment aux changements des limites de vitesse affichées ou ne pas tenir compte de manière adéquate de l’ajustement par le conducteur de la vitesse du véhicule pour dépasser les limites de vitesse affichées ».
L’année dernière, Tesla a rappelé près de 54 000 véhicules américains équipés du logiciel FSD Beta qui peut permettre à certains modèles d’effectuer des « arrêts roulants » et de ne pas s’arrêter complètement à certaines intersections, ce qui pose un risque pour la sécurité, a déclaré la NHTSA.
Selon Tesla et la NHTSA, les fonctions de conduite avancées de FSD ne rendent pas les voitures autonomes et obligent les conducteurs à faire attention.
© Thomson Reuters 2023
[ad_2]
Source link