C’est un accident que tout l’univers de l’automobile redoutait. Le 19 mars 2018, un véhicule autonome d'Uber est responsable de la mort d’une piétonne aux Etats-Unis.

L’information a été communiquée par Uber lui-même, qui a décidé dans la foulée de suspendre son programme de circulation de voitures sans conducteur.

Un opérateur était derrière le volant


L'accident s'est déroulé dans la ville de Tempe, près de Phoenix, en Arizona, où Uber fait rouler des voitures autonomes. Des tests sont aussi à Toronto (Canada), Pittsburgh (est) ou encore San Francisco (nord-ouest). Le véhicule testé en cause était une Volvo XC90.

Selon Uber, "le véhicule était en mode autonome lors de la collision, avec un opérateur derrière le volant" lorsqu'il a heurté "une femme qui traversait en dehors des clous". Celle-ci a été transportée à l'hôpital où elle est décédée.

Il ne s'agit donc pas d'un accident de voiture robot à proprement parler mais d'un accident lors de tests, à un stade, où par définition les véhicules ne sont pas encore totalement au point.

Une collision difficilement évitable


Citée par le San Francisco Chronicle, la cheffe de la police de Tempe a cependant indiqué que les premiers éléments de l’enquête tendent à montrer que le véhicule autonome n’était pas en faute.

“Il est très clair qu’il aurait été difficile d’éviter cette collision quel que soit le mode de conduite (autonome ou humaine) étant donné la façon dont la victime a surgi sur la route”, a déclaré Sylvia Moir.


La police s’appuie notamment sur les images tournées par les caméras équipant le véhicule, qui n’ont pas été rendues publiques.

Les images de la télévision locale montrent un vélo plié et un SUV Volvo XC90 accidenté à l’avant.

Les entreprises de VTC comme Lyft et Uber sont particulièrement intéressées par les véhicules autonomes car l'essentiel de leurs coûts passent dans la rémunération des chauffeurs.


Déjà un premier accident de Tesla autonome


Paradoxe, les défenseurs de la conduite autonome estiment que cette technologie peut diminuer le nombre d'accidents, précisément parce que les machines seraient plus fiables qu'un humain.

Mais cet accident devrait venir renforcer les interrogations quant à la sécurité des voitures autonomes, d'autant que l'événement du 19 mars 2018 n'est pas le premier accident mortel impliquant un véhicule ayant des fonctions de ce type.

Un automobiliste américain d'une quarantaine d'années avait trouvé la mort en 2016 alors qu'il conduisait une berline Model S de Tesla équipé d'Autopilot, logiciel qui permet un certain nombre de manœuvres sans l'intervention du conducteur.

Premier accident : la Tesla n'aurait pas dû être où elle était


Le régulateur des transports, le NTSB, avait estimé que le système était en partie responsable de l'accident et n'aurait pas dû être utilisé sur la route où était survenu l'accident parce que celle-ci n'était pas adaptée à cette technologie.

La "trop grande dépendance" du conducteur à Autopilot "a entraîné un désengagement prolongé" ayant conduit à la collision, avait conclu le NTSB.

Autopilot "n'est pas une technologie de conduite autonome" et "les conducteurs doivent rester attentifs à tout moment pendant la conduite", avait plaidé Tesla.

Davantage de tests autorisés


Hasard du calendrier, c'est le jour même de la publication des conclusion du NTSB que l'administration Trump avait autorisé plus de tests de voitures autonomes sur les routes, estimant que cette technologie pouvait, outre le fait de réduire les accidents, aussi améliorer la mobilité des personnes âgées, handicapées et autres personnes isolées.

General Motors a demandé récemment l'autorisation aux autorités américaines de tester une voiture sans volant ni pédales dans le cadre de son programme de développement d'un véhicule autonome qu'il veut mettre sur les routes en 2019.