L’entreprise israélienne Regulus Cyber est parvenue à reproduire les signaux du Global Navigation Satellite System (GNSS), faisant croire ainsi à une voiture Tesla Model 3 qu’elle se trouvait au mauvais endroit. Cette attaque par spoofing a entraîné une décélération brusque de la voiture et des suggestions rapides pour changer de direction. Selon le rapport de l’entreprise, cela aurait également obligé la voiture à générer des signaux inutiles et à essayer de sortir de l’autoroute au mauvais endroit.
Le GNSS est une constellation de satellites qui transmet des informations de localisation à des récepteurs basés sur terre. C’est un terme générique qui désigne la diversité des systèmes régionaux utilisés, tels que le système américain GPS, le chinois BeiDou, le russe GLONASS et l’européen Galileo.
Reproduire de tels signaux revient à les remplacer par des faux, pour tromper les récepteurs. Regulus a utilisé cette technique de spoofing pour attaquer la fonction ‘Navigate on Autopilot’ (NoA) de Tesla.
Introduit en octobre 2018, NoA est le dernier développement mené par Tesla au niveau son projet de conduite autonome. Il complète la fonctionnalité existante Enhanced Autopilot (pilote automatique avancé) qui permettait aux voitures d’accélérer, de freiner et de se diriger dans leur voie de circulation.
NoA a introduit la possibilité de changer de voie suite à des changements de vitesse et de direction, en guidant efficacement une voiture sur une portion de route déterminée entre la bretelle d’accès et la bretelle de sortie. Au départ, NoA demandait aux conducteurs de confirmer les changements de voie en effleurant l’indicateur de changement de direction de la voiture, mais Tesla leur a permis de s’affranchir d’une telle validation.
Dans son rapport sur le test, Regulus a déclaré :
La fonction “Navigate on Autopilot” dépend fortement de la fiabilité du GNSS, et la possibilité de lancer des attaques de spoofing a engendré de multiples scénarios à haut risque pour le conducteur et les passagers de la voiture.
Regulus a d’abord testé le Model S, qui ne prend pas en charge NoA. Il a présenté ces conclusions à Tesla et a intégré la réponse reçue dans son rapport. Tesla aurait déclaré que les conducteurs devaient rester maître de leur voiture à tout moment et être prêts à reprendre le contrôle en contournant le pilote automatique et le NoA. Il aurait également rejeté l’attaque par spoofing GPS, soulignant que cela ne ferait que faire monter ou descendre le système de suspension pneumatique de la voiture.
Regulus a ensuite testé NoA sur une Tesla Model 3. Cette fois-ci, ses conclusions ont été rendues publiques.
Le CMO (Chief Marketing Officer) de Regulus, Roi Mit, a déclaré à Sophos :
Le but de ce type de signalement est de créer une coopération. Mais plus précisément, dans le cas de la Tesla Model 3, nous avons décidé de rendre publique cet événement simplement parce que la voiture en question était déjà commercialisée. Elle est d’ailleurs déjà présente dans le monde entier.
Selon lui, alors que les constructeurs se dirigent vers des systèmes de conduite véritablement autonomes, le danger du spoofing GNSS représente un danger clair et bien réel pour les conducteurs.
Les chercheurs ont été en mesure de reproduire des signaux GNSS à l’aide d’un émetteur local monté sur la voiture, afin de les empêcher d’atteindre d’autres voitures à proximité. Toutefois, des attaques à plus grande échelle s’étendant sur plusieurs kilomètres sont possibles et la Russie a systématiquement reproduit des signaux GNSS pour défendre ses propres intérêts, selon un rapport récent concernant les dangers des attaques visant le GNSS.
Todd E. Humphreys, co-auteur de ce rapport et professeur associé au département d’ingénierie aérospatiale et mécanique de l’Université du Texas, a déclaré à Sophos qu’il qualifiait cette attaque de “plutôt inquiétante”. Il a ajouté :
L’attaque de Regulus pourrait se faire à 10 km de distance à condition d’avoir une visibilité directe sur le véhicule.
Est-ce que cela signifie que nous serions alors face à des situations cauchemardesques dans lesquelles un terroriste pourrait conduire toutes les Teslas, dans un rayon de 10 km, pour les faire sortir de la route en tuant leurs propriétaires ? C’est peu probable. Tout d’abord, NoA combine les capteurs du véhicule avec les données GNSS et ne provoquerait une sortie de l’autoroute que s’il détecte des indices indiquant ladite sortie. L’attaque de Regulus n’a pu que forcer le véhicule vers une sortie bien précise, depuis l’autoroute, en le dirigeant vers un autre point affichant lui aussi une signalisation de sortie.
Une attaque plus réaliste impliquerait de mal orienter le système de navigation de Tesla afin qu’il prenne effectivement des virages à gauche et à droite comme prévu, mais selon Humphreys, à des jonctions, quant à elles, non souhaitées.
Le véhicule Tesla aurait suffisamment de capacités visuelles et de détection pour ne pas sortir de la route et rentrer dans un arbre. Mais vous pourriez certainement faire en sorte que le véhicule se retrouve dans un quartier où le conducteur ne serait pas en sécurité.
En fait, des chercheurs de Virginia Tech ont récemment présenté ce scénario dans un article intitulé All Your GPS Are Belong To Us.
Tesla n’a pas encore répondu à nos demandes de commentaires.
Billet inspiré de Tesla 3 navigation system fooled with GPS spoofing, sur Sophos nakedsecurity.