Selon le National Transportation Safety Board (NTSB) des États-Unis, une Tesla modèle 3 impliquée dans un accident mortel survenu le 1e mars 2019 en Floride était conduite par le système semi-autonome de pilote automatique du véhicule.

Toujours selon le NTSB, le conducteur n’avait apparemment pas les mains sur le volant dans les huit secondes précédant la collision. En fait, les données préliminaires du véhicule montrent non seulement que la Tesla roulait à environ 109 km/h lorsqu’il a heurté la semi-remorque, mais indiquent aussi que les vidéos n’indiquent nullement que le conducteur ou l’ADAS (système avancé d’aide à la conduite) ont effectué des manœuvres d’évasion.

Dans cette collision mortelle, le NTSB a constaté que la conception du système de pilote automatique Tesla était en partie responsable de l’accident et a émis deux recommandations à la compagnie et aux autres fabricants pour améliorer la sécurité de ces outils de conduite partiellement autonomes, à savoir que les capteurs de la voiture doivent être en mesure de repérer et d’identifier le côté latéral d’un autre véhicule afin de ralentir la voiture.

De là, l’une des questions les plus importantes concernant les voitures autonomes n’est pas forcément d’ordre technologique, mais plutôt d’ordre philosophique : dans quelle mesure la sécurité est-elle suffisante ? La réponse à cette question n’est pas si simple qu’il y parait.

L’enthousiasme à l’égard de la perspective de flottes de voitures autonomes s’est particulièrement accru au cours des cinq dernières années. De nombreuses entreprises sont entrées dans le jeu, dont les géants de la technologie Google (avec Waymo), Uber et Tesla ; des constructeurs automobiles plus traditionnels, comme General Motors, Ford et Volvo, se sont joints à l’aventure. Le marché mondial des véhicules autonomes est évalué à 54 milliards de dollars et devrait décupler au cours des sept prochaines années.

►  Tous les numéros
►  Tous les numéros

Comme pour toute innovation, les voitures autonomes posent de nombreux problèmes techniques, mais on oublie trop souvent les problèmes moraux liés à cette technologie. En l’occurrence, il n’existea pas de paramètres clairs quant à la façon dont la sécurité est considérée comme suffisamment sûre pour qu’une voiture autonome puisse rouler sur la route. Au niveau fédéral, aux États-Unis, les lignes directrices en place sont volontaires et les lois varient d’un État à l’autre. Si et quand les paramètres sont définis, il n’y a pas de norme établie pour mesurer s’ils sont respectés.

Aujourd’hui, la conduite sous contrôle humain est déjà une activité remarquablement sûre — seulement aux États-Unis, il y a environ un décès pour 100 millions de kilomètres parcourus. Les voitures autonomes devront sans doute faire mieux que cela. Sans surprise, le discours jovialiste des technoévangélistes soutient et affirme sans ambages que le pari de la sécurité sera tenu. De là, une question : de combien de points de pourcentage cette sécurité doit-elle être accrue par rapport à un conducteur humain ? Les véhicules doivent-ils être 10 % plus sûrs ? 100 % plus sûr ? Et est-il acceptable d’attendre que des véhicules autonomes répondent à des normes de sécurité très élevées si cela signifie que davantage de personnes meurent entre-temps ?

Tester la sécurité est un autre défi. Il faudrait des centaines de millions, voire des milliards de kilomètres pour recueillir suffisamment de données pour prouver que les voitures autonomes sont fiables. C’est pourquoi les chercheurs tentent de trouver d’autres moyens de valider la sécurité des voitures sans conducteur, comme les simulations informatiques et les pistes d’essai.

Et si les concepteurs de ces voitures disent, d’une manière désinvolte, que les véhicules autonomes devraient être au moins aussi bons que les véhicules conventionnels conduits par des êtres humains, c’est que nous avons un réel problème éthique en ce qui concerne le déploiement de technologies aussi complexes.

Prospective|Société, 2019