hashtagAvocats

Le droit au service

de l'innovation

flecheRight
voiture-autonome

La voiture autonome et le recours aux assurances

Au regard du régime juridique actuel, dans l’hypothèse où surviendrait un accident de la route dans lequel serait impliquée une voiture autonome, la recherche du responsable s’avèrerait complexe. Superviseur humain ou conducteur, constructeur, programmeur … une multiplicité d’acteurs peuvent potentiellement engager leur responsabilité vis-à-vis des victimes. De plus du fait de cette multiplicité, les tribunaux pourraient se trouver engorgés par les conflits entre ces acteurs s’accusant mutuellement comme dans une partie de ping-pong. C’est dans ce contexte que des juristes ont proposé une alternative rapide et efficace : le recours aux assurances.
Le recours à un système d’assurance s’avère très prometteur et trouve à s’appliquer à l’ensemble des régimes juridiques envisagés par les juristes. Il faut garder à l’esprit que dans de nombreux cas d’accidents, la victime peut avoir besoin d’un responsable pour une éventuelle indemnisation du préjudice physique, moral ou matériel qu’elle aura subi, et ce le plus rapidement possible.

Une obligation d’assurance qui engagerait la responsabilité civile du conducteur

Il s’agirait alors de mettre en place une obligation d’assurance qui permettrait une indemnisation des dommages causés par ou aux robots. La responsabilité civile d’un individu serait engagée sur la base d’un contrat d’assurance pouvant s’appliquer quel que soit la qualification juridique de l’Intelligence Artificielle au cœur du fonctionnement du véhicule autonome, sujet du droit ou objet du droit.
Certains juristes ont proposé la création d’un régime de garde intellectuelle qui s’appliquerait à la voiture autonome. Ainsi en principe, du fait de sa présence à bord, le conducteur devenu simple superviseur serait présumé avoir le contrôle du véhicule. Par opposition, le conducteur n’engagera pas sa responsabilité lorsque la délégation de conduite est totale puisque dans cette situation c’est la présomption de responsabilité du robot qui prendrait la relève tel que l’assureur du véhicule aurait le dédommagement demandé à sa charge.
L’avantage du recours aux assurances est qu’en principe, ces derniers essaient de régler leurs litiges à l’amiable pour éviter d’engager des poursuites. Ainsi, l’assureur du véhicule pourra indemniser la victime de l’accident et ensuite se retourner contre l’assureur du programmeur ou du conducteur, sans passer par les tribunaux. Dans cette logique, cette situation ne pourrait intervenir qu’en dernier recours, lorsque les assureurs n’arrivent pas à trouver un terrain d’entente.

Un régime nouveau construit sur un système existant

Ces contrats d’assurance fonctionneraient sur le modèle des contrats d’assurance de biens : le système d’assurance de protection des biens et le système de responsabilité pour les dommages causés. Le recours à l’article L.124-1-1 du Code des assurances « un ensemble de faits dommageables ayant la même cause technique est assimilé à un fait dommageable unique » s’appliquerait également. Ainsi le fait d’une voiture autonome constituerait une “cause technique” et le constructeur devra garantir l’ensemble des faits dommageables qu’elle pourrait éventuellement causer.
Par ailleurs, la Loi Badinter du 5 juillet 1985 (1) prévoit déjà un recours aux assurances. Elle oblige les compagnies d’assurance à contacter les victimes afin de les informer de leurs droits et à leur faire des offres d’indemnisation après une évaluation de leurs préjudices.

Un régime de responsabilité sans faute pour réparer intégralement les dommages subis par les victimes d’accidents

Le Parlement européen a également envisagé la mise en place d’un système d’assurance dans un rapport sur le thème de la responsabilité des robots (2) contenant des recommandations à la Commission concernant les règles de droit civil sur la robotique publié le 31 mai 2016, qui s’appliquerait également aux voitures autonomes. Ce rapport préconise la mise en place d’un mécanisme de responsabilité offrant une réparation intégrale du dommage sur le principe d’une responsabilité sans faute, ainsi que d’un régime d’assurance obligatoire complété par un fonds spécifique. La responsabilité des personnes concernées pourrait ainsi être évaluée en fonction du niveau d’instructions données et de l’autonomie du robot.
Conclusion : Le recours aux contrats d’assurance semble être un mécanisme efficace et prometteur en attendant la mise en place d’un régime juridique spécifique aux situations pouvant être engendrées par l’usage de voitures autonomes. Et finalement, il s’agit également d’une alternative qui pourrait être déployée dès aujourd’hui, afin de palier à la lenteur des travaux en cours pour la création de ce régime, car elle pourrait responsabiliser les constructeurs de véhicules autonomes qui prendraient toutes les mesures nécessaires pour éviter d’engager leur responsabilité du fait de leur imprudence dans la conception d’un véhicule. De plus ces derniers seraient forcés d’informer leurs potentiels clients des risques qu’ils encourent au volant de véhicules auxquels ils ont délégué, entièrement ou pas, la conduite.

(1) httpss://www.legifrance.gouv.fr/affichTexte.do?cidTexte=LEGITEXT000006068902&dateTexte=20100114
(2) https://www.europarl.europa.eu/sides/getDoc.do?pubRef=-//EP//TEXT+REPORT+A8-2017-0005+0+DOC+XML+V0//FR

photo-1531747118685-ca8fa6e08806

La voiture autonome : qui est responsable en cas d’accident ?

Les enjeux juridiques de la voiture autonome sont nombreux et les questions de responsabilité et d’éthique n’ont pas fini d’alimenter les débats. Une des raisons de la complexité de cette question est la multiplicité des acteurs pouvant engager leur responsabilité. Le conducteur, le constructeur du véhicule, le programmeur de l’algorithme alimentant l’intelligence artificielle, l’intelligence artificielle elle-même … les experts vont devoir s’entendre avant de pouvoir mettre ces véhicules dans le commerce.

Le passage par des phases transitoires avant le véhicule complètement autonome.

Certains experts annoncent une multiplication des accidents durant les deux phases transitoires qui mèneront à la banalisation de l’usage des voitures autonomes.

D’abord la phase durant laquelle humain et robot apprendront à cohabiter. La société Axios a effectué une étude sur l’ensemble des véhicules autonomes recensés entre 2014 et 2018 par le State of California Department of Motor Vehicle (1). Les résultats montrent que sur les 8 % d’accidents causés par l’erreur d’une voiture autonome, 6 % ont été provoquée par les conducteurs quand seulement 1 % est véritablement dû à un défaut de système autonome quand les 5 % restants sont dû à une erreur humaine ou à l’intervention d’un piéton. On retiendra de cette étude que pour le moment le système autonome et l’humain ne savent pas cohabiter et devront  apprendre à interagir avant de circuler sur la voie publique. L’expert en intelligence artificielle, Andrew NG, a d’ailleurs suggéré que les piétons devraient améliorer leur comportement et s’entraîner à manœuvrer en toute sécurité autour de voitures autonomes. Ce qui n’a pas manqué de susciter un certain débat. Ensuite vient la phase durant laquelle de nombreux conducteurs de véhicules autonomes auront perdu l’habitude de conduire et que devenus dépendants de la conduite assistée, ils auront perdu leurs reflexes de conducteur au moment de reprendre le contrôle de leur véhicule.

Les différentes pistes de responsabilité applicable au véhicule autonome.

Divers régimes de responsabilité ont été envisagés par les juristes. La responsabilité du conducteur peut être engagée, soit sur le régime pénal de la négligence ou de l’imprudence, en fonction du degré de gravité de la faute, soit sur le régime civil de la garde matérielle de la chose. Cependant, lorsqu’un conducteur a totalement délégué la conduite à son véhicule autonome, la garde s’appliquerait difficilement du fait de son autonomie. C’est pourquoi il a été proposé de créer un pouvoir de garde intellectuelle. Ainsi en principe, du fait de sa présence à bord, le conducteur devenu simple superviseur serait présumé avoir le contrôle du véhicule. Par opposition, le conducteur n’engagera pas sa responsabilité lorsque la délégation de conduite est totale.

La responsabilité du programmeur peut être engagée si on considère que l’erreur commise dans le code de programmation est à la source du dommage causé par la machine. Le constructeur peut également être tenu pour responsable d’un accident causé par un défaut de construction sur le véhicule, soit sur le fondement de la responsabilité du fait des produits défectueux, soit sur celui du droit des contrats.

Le système de responsabilité en cascade, qui consiste à élaborer une chaîne de responsabilités successives entre les différents intervenants, programmeur, constructeur, concepteur, utilisateur, afin d’assurer à la victime d’un dommage causé par une IA ou par le robot, la réparation de son dommage pourrait également s’appliquer. Dans cette logique, la responsabilité liée au robot ne constituerait pas un bloc, mais serait partagée par les différents intervenants, eux-mêmes hiérarchisés. Aux Etats-Unis un régime en cascade a été adopté dans trois états, le Nevada, la Floride et le district de Columbia, tel que le constructeur sera exonéré de sa responsabilité en cas de défaillance de la technologie autonome, sauf si il l’a directement installée sur le véhicule, ou si le préjudice a été causé par une défaillance du véhicule indépendamment de la technologie autonome.

Les juristes ont également envisagé de doter le robot d’une personnalité juridique (2) afin d’engager sa responsabilité lorsqu’il cause des dommages à autrui. Toutefois, la direction générale des politiques internes du Parlement européen s’est montrée très critique à l’égard de l’émergence d’une personnalité juridique des robots qui lui semble « inopportune et malvenue » (3).

Cette opposition est également soutenue par plus de 200 juristes, leaders industriels et experts de l’intelligence artificielle et de la robotique qui ont adressé une lettre ouverte contre « la création d’un statut juridique de personne électronique pour les robots » à la Commission européenne par un collectif de chercheurs en avril dernier.

La question de l’adaptation des régimes juridiques existants aux nouveaux enjeux de la voiture autonome.

Pour certains experts, il faudrait mettre en place un régime juridique adapté aux enjeux nouveaux de l’intelligence artificielle quand pour d’autres, il suffirait d’adapter la législation existant déjà en la matière. La loi Badinter du 5 juillet 1985 (4) pourrait s’appliquer en la matière. Elle organise un régime spécial de responsabilité en matière d’accidents automobiles afin d’obtenir l’indemnisation quasiment systématique et rapide des victimes et oblige les compagnies d’assurance à contacter les victimes afin de les informer de leurs droits et à leur faire des offres d’indemnisation après une évaluation de leurs préjudices. La responsabilité du conducteur ou de la conductrice reste principalement retenue dans la logique de la loi Badinter.

Plus récemment, un décret du 28 mars 2018 « relatif à l’expérimentation de véhicules à délégation de conduite sur les voies publiques » est rentré en vigueur (5).  Ce texte, attendu depuis 2016, est la première véritable législation concernant la mise en circulation des véhicules autonomes en France. Il concerne les véhicules autonomes de niveau 4, qui peuvent effectuer des tâches ordonnées par le conducteur sans que celui-ci intervienne pendant la manœuvre de conduite. Il modifie des articles du Code de la route et du Code des transports pour instaurer une autorisation spécifique de circulation pour des essais de circulation sur la voie publique de véhicules autonomes affectés au transport public de personnes ou de marchandises. Le texte conserve les points principaux de la loi Badinter qui responsabilise le superviseur humain. L’autorisation provisoire de circulation du véhicule autonome ne pourra être accordée que si ce superviseur peut reprendre la main sur le véhicule via un processus de télé commande. Ce décret prévoit enfin qu’en cas de survenance d’un accident de la route, les données enregistrées par le véhicule au cours des dernières cinq minutes sont conservées par le titulaire de l’autorisation durant un an.

Conclusion : Le chemin menant à la mise en circulation semble long tant les enjeux juridiques sont complexes. Pour le moment, les avis sont mitigés entre les juristes et experts travaillant sur la question de la responsabilité du fait des accidents causés par les voitures autonomes. Le manque de connaissance des juristes et des juges risque de ralentir ce travail. En tout état de cause, puisque le 3 août dernier, le conseil des ministres a officiellement autorisé les expérimentations des voitures à délégation de conduite sur les routes françaises, on peut s’attendre à une évolution de cette législation dans les prochains mois.

 

(1) httpss://www.axios.com/california-people-cause-most-autonomous-vehicle-accidents-dc962265-c9bb-4b00-ae97-50427f6bc936.html

(2) https://www.europarl.europa.eu/sides/getDoc.do?pubRef=-//EP//NONSGML%2BCOMPARL%2BPE-582.443%2B01%2BDOC%2BPDF%2BV0//FR

(3) https://www.europarl.europa.eu/RegData/etudes/STUD/2016/571379/IPOL_STU%282016%29571379_FR.pdf

(4) httpss://www.legifrance.gouv.fr/affichTexte.do?cidTexte=LEGITEXT000006068902&dateTexte=20100114

(5) httpss://www.legifrance.gouv.fr/eli/decret/2018/3/28/TRER1717809D/jo/texte

photo-1535378273068-9bb67d5beacd

La voiture autonome : quelles avancées technologiques et juridiques ?

 

La voiture autonome est un véhicule apte à circuler sur la voie publique, sans intervention d’un conducteur. Lorsque l’utilisateur conduit sans les mains et sans les yeux, avec une confiance aveugle vis-à-vis de son véhicule, on parle de conduite «hors conscience». De ce fait, l’utilisateur du véhicule n’est plus conducteur mais passager de son véhicule.

Cette technologie était autrefois interdite par l’article R.412-6-1 du Code de la route selon lequel « tout véhicule en mouvement ou tout ensemble de véhicules en mouvement doit avoir un conducteur ». Cet article a été modifié par décret le 30 juillet 2008 (article 15) tel que cette interdiction n’existe plus aujourd’hui. Par ailleurs, le 3 août dernier, le conseil des ministres a officiellement autorisé, par ordonnance, les expérimentations des “voitures à délégation de conduite” sur les routes françaises.

Aujourd’hui, il existe actuellement sur le marché européen des véhicules semi-autonomes, équipés d’une fonction de délégation de conduite, permettant au véhicule, comme pour une voiture autonome, de conduire à la place de l’humain. Cependant, dans certaines situations le conducteur doit pouvoir reprendre la main à tout moment.

Sur la question de la fiabilité des véhicules autonomes, les avis sont mitigés. La société de conseil KPMG fait partie des défenseurs de la voiture autonome. D’après elle, la délégation de conduite pourrait diminuer le nombre d’accidents : à l’heure actuelle 90 % d’entre eux sont dus à une erreur humaine.

D’un autre côté l’actualité de ces deux dernières années nous a montré que la délégation de conduite pouvait poser des problèmes d’éthique dans le sens où il serait compliqué de déterminer qui devra engager sa responsabilité en cas d’accident. Celui survenu la nuit du 19 mars 2018 en est un exemple (1). En effet, un défaut de fabrication du système de capteurs du 4×4 de la marque Volvo, véhicule autonome appartenant à la compagnie UBER, qui roulait 5 km/h au-dessus de la limite fixée, a causé la mort de la piétonne Elaine Herzberg. La société Uber ayant coupé le freinage d’urgence du véhicule, la conductrice n’avait pas eu la possibilité de freiner pour éviter le choc, or il est probable que si la programmation de la conduite assistée du véhicule lui avait permis de reprendre le volant à tout moment, elle aurait pu freiner avant le choc.

De plus, avant de passer à une voiture fonctionnant complètement sans conducteur, encore faut-il que la voiture semi-autonome tienne ses promesses. Entre septembre 2017 et juin 2018, la société de tests automobile UTAC-CERAM s’est associée à la fondation MAIF afin de mettre à l’épreuve les capacités de freinage d’urgence et de conduite autonome de quatre véhicules : Tesla Model S, BMW Série 7, Mercedes Classe E et Volvo S90 (2). Les résultats montrent que le conducteur en situation de vigilance, est aujourd’hui, dans de nombreuses situations, bien meilleur que les véhicules automatisés testés. En revanche, en cas de baisse de vigilance du conducteur, ces outils d’aide à la conduite favorisent sa sécurité. Finalement de nombreuses failles sont encore présentes dans le fonctionnement des aides à la conduite pour prétendre à une conduite autonome fiable et sécurisée. Et puisque le robot, même infaillible, ne peut pas éviter 100% des accidents il faudra responsabiliser d’avantage le conducteur.

C’est la direction qu’a adoptée le groupe Tesla en 2017. Critiquée pour le manque de sécurisation de son mode « Autopilot » (pilotage automatique) elle a mis en place un double mécanisme. Dans un premier temps, ce mécanisme force le conducteur à garder le contrôle de son véhicule. Ainsi, si le système ne détecte pas de mains sur le volant au bout de quelques minutes (environ deux minutes) il va inciter le conducteur à reprendre en main le volant par le biais de messages apparaissant sur l’écran situé derrière le volant ainsi que de bips répétitifs. Si le conducteur ne remet pas ses mains sur le volant, le véhicule s’immobilisera dans sa voie, les warnings activés.

Dans un second temps, le véhicule va également sanctionner l’utilisateur imprudent en l’empêchant de réactiver immédiatement le mode Autopilot une fois revenu au contrôle manuel. Pour pouvoir le réactiver, il faudra alors immobiliser le véhicule et passer en mode parking, le tout manuellement. Cette sécurité supplémentaire pourrait permettre d’éviter des accidents causés par l’hypovigilance des conducteurs imprudents délégant aveuglément la conduite à leur véhicule par exemple lorsque les conditions de visibilité ne sont pas suffisantes, ce qui aurait pu sauver la vie du conducteur mort dans l’accident de sa Tesla en mai 2016.

Conclusion : Aujourd’hui de gros progrès ont été réalisés dans le perfectionnement de la conduite assistée, mais d’autres restent encore à faire avant d’arriver à un niveau de sécurité suffisant pour rassurer les autorités ainsi que les potentiels utilisateurs des véhicules intelligents. La voiture pourrait bien être l’avenir, mais elle ne fera pas partie d’un avenir proche, ou en tout cas par en France. Et en tout état de cause, après avoir perfectionné les systèmes intelligents embarqués dans ces véhicules encore faudra-t-il préparer l’humain à la cohabitation humain-machine et prévoir un cadre juridique spécifique à son temps d’adaptation.

 

(1) httpss://www.futura-sciences.com/tech/actualites/voiture-voiture-autonome-uber-logiciel-mal-regle-origine-accident-mortel-70587/

(2) httpss://www.utacceram.com/fr/actualites-utacceram/696-etude-des-vehicules-encore-loin-d-etre-autonomes