<< Retour aux articles
Image  Getty_Devrimb

Premier accident mortel d’une voiture autonome : et maintenant ?

Tech&droit - Intelligence artificielle
05/04/2018
Dans les premiers développements prospectifs sur l’avenir de l’intelligence artificielle, le véhicule autonome déjà retenait une grande attention notamment dans une hypothèse : celle de la recherche de responsabilité en cas d’accident mortel. La pratique, une fois de plus, nous oblige désormais à trouver des solutions concrètes. Les explications de d'Arnaud Touati, avocat associé, co-fondateur du cabinet Alto Avocats, et Gary Cohen, collaborateur.
Le 18 mars 2018, un véhicule autonome utilisé par Uber renversait une américaine qui traversait en dehors du passage pour piéton, la tuant sur le coup. Dès l’annonce de ce tragique événement, des dizaines de spécialistes et experts se sont rués au prétoire médiatique pour expliquer les causes techniques de l’accident.

Si la défaillance technologique sera délicate à prouver, les conséquences sur le plan juridique de l’accident le sont tout autant : qui sera désigné responsable de l’accident ?

Dans notre cas d’espèce, qui ressemble d’ailleurs fortement à un cas d’école envisagé dès avant l’utilisation publique des véhicules autonomes, de multiples personnes et entités sont susceptibles d’être considérées comme responsables de l’accident, à des degrés plus ou moins élevés.

Bref rappel de l’état du droit
Pour mémoire, aucune disposition légale ou réglementaire ne permet pour l’instant de poser un cadre légal pour la réparation des dommages causés par un véhicule autonome (sur ce sujet, v. Touati A. : « Il n'existe pas de régime adapté pour gérer les dommages causés par des robots », Actualités du droit, 5 janv. 2017).

Ainsi, l’on pense dans un premier temps à la responsabilité du concepteur de l’intelligence artificielle chargée de conduire le véhicule de manière sécurisée. Dans ce cas, il faudrait être en mesure de pouvoir identifier avec précision le défaut dans la conception, comme par exemple une erreur de code, pour pouvoir engager la responsabilité du concepteur. Cette première hypothèse apparaît donc difficile à mettre en œuvre dans la mesure où la preuve d’un tel défaut est quasiment impossible à apporter.

En outre, une responsabilité plus « directe » pourrait être mise en jeu par la preuve d’une défaillance des capteurs en charge de la détection des obstacles sur la route (la piétonne avait traversé en pleine nuit et en dehors de tout passage prévu à cet effet). Dans ce cadre, le constructeur des capteurs pourrait être appelé à répondre de la défaillance de ses produits.

Par ailleurs, à la responsabilité de l’intelligence artificielle pourrait se substituer celle d’un logiciel malveillant tiers. Il n’est pas rare qu’un cheval de Troie prenne le contrôle d’un ordinateur pour mener une attaque informatique. Dans ce cas, l’ordinateur, ou son propriétaire, ne peuvent être désignés comme responsables.

Cette interposition d’un logiciel malveillant semble toutefois moins probable dans le contexte du véhicule autonome, si l’on part du principe que la sécurité informatique de l’intelligence artificielle est un point de vigilance majeur des constructeurs, égard à l’enjeu humain s’y attachant.

Ensuite, dans un second temps, la responsabilité du "conducteur" du véhicule peut aussi être mise en avant. En effet, bien que le véhicule soit considéré comme autonome, la personne physiquement présente derrière le volant n’est pas pour autant censée vaquer à ses occupations sans jamais se soucier de la conduite du véhicule. En l’état actuel de l’enquête, une vidéo révèle que le conducteur ne regardait pas la route peu avant que l’impact se produise.

On peut dès lors envisager la possibilité d’une responsabilité solidaire et conjointe, à hauteur des défaillances respectives des parties prenantes : le conducteur pour ne pas avoir été diligent et l’intelligence artificielle (le développeur de l’IA ou la personne qui l’a entraînée, ou les deux ?) pour ne pas avoir su éviter l’accident.

Le modèle de la loi Badinter, une piste de solution ?
Face à ces innombrables difficultés dans la recherche d’une responsabilité, une solution opportune pourrait consister en l’introduction d’un régime de responsabilité de plein droit afin de garantir à la victime une indemnisation, même en cas de grave imprudence (tel est d’ailleurs l’état du droit issu de la loi Badinter, très protecteur des victimes piétonnes).

En tout état de cause, cet accident mortel a déjà eu pour conséquences le retrait par la Californie des autorisations délivrées à Uber pour tester ses voitures autonomes. Reste à savoir comment réagiront les parties prenantes, notamment la famille de la victime avec laquelle Uber sera très probablement tenté de trouver un accord amiable.
 
Source : Actualités du droit