Les régulateurs américains de la sécurité ont officiellement conclu leur enquête sur la fonction de stationnement à distance de Tesla, « Actually Smart Summon » (ASS). La National Highway Traffic Safety Administration (NHTSA) a décidé de clore l’enquête après avoir déterminé que la fréquence et la gravité des accidents signalés ne justifiaient pas de mesures réglementaires supplémentaires.
La portée de l’enquête
L’enquête a été lancée en janvier 2025 suite à des informations faisant état de dizaines d’accidents impliquant cette fonctionnalité. « Actually Smart Summon » permet aux propriétaires de Tesla de diriger leur véhicule vers leur emplacement à basse vitesse en utilisant uniquement les caméras embarquées de la voiture, contrôlées via une application pour smartphone.
Cette itération spécifique du logiciel était importante car elle a permis à Tesla de passer de l’utilisation de capteurs à ultrasons, qui étaient standard sur les anciens modèles, à un système uniquement avec caméra (Tesla Vision). Ce changement a soulevé des questions parmi les régulateurs quant à la capacité du véhicule à percevoir son environnement sans capteurs de proximité physiques.
Résultats : faible fréquence, faible impact
Après avoir examiné des millions de sessions d’invocation, la NHTSA est parvenue à plusieurs conclusions clés :
- Rareté statistique : Les incidents représentaient moins de 1 % de toutes les sessions d’invocation.
- Dommages minimes : Les accidents signalés étaient caractérisés par des dommages matériels mineurs, tels que des collisions avec des bornes, des portails ou des véhicules garés.
- Aucune blessure grave : Surtout, aucun incident impliquant des piétons, des cyclistes ou des « usagers de la route vulnérables » n’a été signalé. De plus, aucun accident n’a entraîné de blessures, de décès ou de dommages majeurs au véhicule nécessitant un remorquage ou le déploiement des airbags.
Identifier les causes profondes
La NHTSA a identifié deux raisons principales pour lesquelles ces incidents mineurs se sont produits :
- Erreur humaine et système : Dans plusieurs cas, l’utilisateur ou le système automatisé n’a pas réussi à surveiller complètement les environs. Ce problème était souvent exacerbé par la visibilité limitée dans le flux de la caméra de l’application, ce qui rendait difficile pour l’utilisateur de voir ce que la voiture voyait en temps réel.
- Obstructions environnementales : Le système était parfois confronté à des facteurs environnementaux, tels que la neige obstruant les caméras, que le logiciel n’a pas réussi à détecter comme raison d’arrêter le fonctionnement.
En réponse à ces découvertes, Tesla a déjà déployé plusieurs mises à jour logicielles visant à améliorer la reconnaissance des objets et à renforcer la capacité du système à détecter le blocage des caméras.
Contexte : une cible mouvante pour les régulateurs
Cette décision met en évidence le défi permanent auquel les régulateurs sont confrontés avec les « véhicules définis par logiciel ». Contrairement aux pannes mécaniques traditionnelles, les fonctionnalités autonomes évoluent constamment grâce aux mises à jour en direct (OTA).
Bien que la NHTSA ait clos ce cas spécifique, elle a noté que cela ne signifie pas que la fonctionnalité est officiellement considérée comme « sûre ». L’agence se réserve le droit de rouvrir l’enquête si de nouvelles données ou un schéma différent d’accidents émergent.
L’enquête conclut que même si la fonctionnalité présente des défauts, son taux d’erreur est statistiquement faible et n’a pas la gravité généralement requise pour déclencher une désignation formelle de défaut de sécurité.
En résumé, bien que la fonction « Actually Smart Summon » ait montré des limites dans la gestion des obstacles environnementaux et de la visibilité, la NHTSA a déterminé que le risque pour la sécurité publique est actuellement minime en raison de la faible fréquence et du faible impact des incidents signalés.



























