29/08/2018

Si nous avons depuis longtemps été fasciné par l’intelligence artificielle, par la possibilité de pouvoir déléguer de plus en plus de taches du quotidien à de nouvelles formes d’intelligence, cette course au progrès a également toujours été porteuse d’inquiétudes et de doutes.

Nous sommes aujourd’hui face à de nouvelles questions juridiques, qui jusque-là n’avaient encore jamais été envisagées.

De plus en plus de domaines de notre vie quotidienne sont aujourd’hui concernés par la robotique. Si le statut des robots n’est pas le même statut à travers le monde, nous analyserons brièvement la situation en Asie tout en la comparant avec celle dans l’Union européenne et aux États-Unis.

Qu’est-ce qu’un robot ?

Le robot n’est pas un concept nouveau, loin de là. Il peut être défini comme « Un superordinateur logé dans un corps mobile, capable de fonder ses actions de manière raisonnée sur ce qu’il perçoit du monde extérieur ».

Cette définition très générale permet en réalité de classifier les différents robots en trois grandes catégories que sont : la mécanique, l’électronique et l’informatique. Les applications sont évidemment multiples et les questionnements éthiques ainsi que juridiques ne cessent de croître.

Les Robots en Asie

Contrairement à la situation en Europe, l’Asie à un rapport moins craintif vis-à-vis de l’intelligence artificielle, et souvent même avant-gardiste. En effet, l’automatisation a lieu de manière beaucoup plus rapide dans les pays asiatiques, et en particulier en Chine. En 2017 par exemple, un robot à l’apparence humaine s’est vu accordé le statut officiel de résident à Tokyo.

Les Robots en Europe et aux États-Unis

La technologie robotique se développe également de manière importante en Europe et aux États-Unis : en dehors des robots domestiques qui commencent à devenir de plus en plus courants, d’autres applications telles que les voitures (semi)-autonomes sont régulièrement testées.

C’est ce dernier point qui semble être le plus urgent à régler puisque comme vous l’avez sans doute entendu, en mars 2018, une voiture autonome Uber a provoqué un accident mortel aux États-Unis. Ce tragique accident a rappelé l’urgence d’établir certaines règles pour savoir quel acteur serait susceptible d’endosser la responsabilité d’un tel type d’accident.

Il convient évidemment distinguer les voitures semi-autonomes qui nécessitent toujours une intervention humaine et les voitures totalement autonomes qui pour l’instant ne sont pas encore commercialisées. L’accident mortel de mars 2018 a eu lieu dans le cadre d’un test d’une voiture Uber totalement autonome.

Il s’agit dès lors d’analyser la question de la responsabilité de manière légale : lorsque le conducteur n’a aucun rôle à jouer lors de la conduite, qui faut-il considérer comme responsable ?

La réponse la plus simple est évidemment de considérer que tout accident dû à un dysfonctionnement de l’algorithme est imputable au constructeur automobile. Il existe cependant un vide juridique : si le conducteur n’a pas eu de rôle à jouer dans l’accident et que l’algorithme n’est pas défectueux mais qu’il a tout de même conduit à blesser quelqu’un ; qui endossera cette responsabilité ?

Plusieurs hypothèses sont envisageables : celle du constructeur automobile, celle du concepteur du système autonome ou encore celle du conducteur si ce dernier devait intervenir, voire une responsabilité partagée entre les différents acteurs.

Nous pouvons également relever que certains constructeurs tels que Volvo ou Mercedes ont déjà accepté contractuellement d’endosser une responsabilité totale lors d’un accident causé par une voiture autonome de leur marque.

Cependant, avant d’atteindre un point de démocratisation des voitures complètement autonomes, la situation d’ « entre deux », c’est-à-dire de voitures semi-autonomes est plus complexe. En 2016 déjà, un accident mortel avait eu lieu avec une voiture semi-autonome de la marque Tesla. La responsabilité du conducteur avait été retenue car au moment de l’accident, ce dernier n’avait pas suivi les injonctions du système lui ordonnant de reprendre le contrôle du véhicule.

La situation de conduite automatisée est évidemment contraire à ce que nous connaissons pour l’instant en matière de circulation routière en Europe, puisque l’article 8 de la Convention de Vienne (dont les États-Unis ne sont pas signataires) sur la circulation routière dispose que : « Tout conducteur doit constamment avoir le contrôle de son véhicule ». Cependant cette convention internationale a été révisée en 2016 pour permettre la conduite par systèmes automatisés « à condition qu’ils puissent être contrôlés voire désactivés par le conducteur ». Certains véhicules sont depuis lors déjà testés en Europe.

C’est dans ce cadre que la Commission des affaires juridiques avait déjà proposé en 2016 d’adopter des règles dans le domaine de la robotique. Ces règles portaient notamment sur la responsabilité en cas d’accident avec un véhicule autonome, et prévoyaient même à terme de créer un véritable statut de « personnes électroniques » pour les robots les plus développés. En 2017 le Parlement européen adoptait une résolution invitant la Commission à légiférer à ce sujet. La résolution doit toujours être examinée par la Commission.

Conclusion 

L’Intelligence artificielle n’en est plus à ses balbutiements, et il est temps de reconsidérer sérieusement certaines règles juridiques. Si la proposition de la Commission des affaires juridiques concernant l’adoption d’un statut de « personne électronique » pour certains robots semble un peu prématurée ; en revanche, la question de la responsabilité civile dans le cas d’accidents causés par des voitures (semi-)autonomes apparaît comme une priorité.

De plus, il n’y a pas que les questionnements juridiques à rester sans réponses. La reconnaissance d’un statut juridique robotique ou encore la responsabilité des voitures autonomes posent également des questions éthiques : l’algorithme de la voiture autonome doit-il privilégier la vie de son conducteur ou celle d’un piéton ?

La mise en place d’un droit harmonisé sur la robotique qui est discutée au niveau européen devra régulé trois domaines : la responsabilité du robot, la sécurité et le marché du travail.

Il s’agira là d’un défi auquel il faudra répondre tout en évitant de tomber dans les écueils d’un scénario dystopique.

Écrit par Leo Foucher