DROIT & ROBOTIQUE : Le choix du pragmatisme et du réalisme

Publié par Philippe Veber il y a 5 années | Robotique

1/ Positionnement

De nombreux travaux ont été déjà été menés dans le monde entier sur la robotique et le droit.

Le robot envisagé sous toutes ses formes, ses fonctionnalités, et en dehors de toute définition partagée, universelle et validée, est source de réflexions, des plus extravagantes aux plus sérieuses.

Cela va de la «maltraitance » de PLEO, un petit dinosaure robotique, jusqu’à ce que mort s’ensuive, aux recherches particulièrement pertinentes dans le secteur militaire.

Les robots sont présents dans l’industrie.

Certaines règles de droit ou régimes juridiques s’appliquent déjà (brevets).

Mais les robots s’immiscent aussi dans notre vie quotidienne.

Comme internet chahute le droit des marques et la protection de la vie privée par exemple, la robotique va provoquer un réajustement de certains principes juridiques actuels.

L’enjeu judiciaire ne va pas tarder de planer au-dessus du développement decertains domaines la filière robotique.
L’idée audacieuse est de ne pas laisser au juge, ou pire, à l’expert judiciaire, le soin de trancher des situations découlant d’une technique ou d’un univers particuliers, sans que l’industrie concernée n’ait tenté au préalable d’expliquer et d’anticiper, notamment auprès du monde des assureurs, qu’il faut se garder d’effrayer avec des concepts venus de l’au-delà et donc inconnus.

Le lobbying commence peut-être à ce stade.

La présente note a pour objet de se situer dans le secteur civil et d’envisager l’implication en termes de responsabilité, de l’introduction dans la vie quotidienne ou industrielle notamment des différents robots, envisagés au sens large (services, surveillance, éducation, loisirs, assistance, véhicule, etc.).

Curieusement, le « robot » semble faire peur alors que la robotique paraît susciter l’engouement.
Il faut éviter de faire de la science une fiction juridique mais il faut défaire la fiction juridique au profit de la science.
Entre drone ou clone, il faut choisir.

Il est nécessaire de ne pas créer des concepts inaudibles, hors de la réalité, qui auront du mal à être appréhendés par la société, l’assureur, le juge, l’utilisateur, etc., et qui n’auront d’autre vertu que d’entretenir la peur de l’irrationnel ce que ne représente pas un robot industriel par exemple.

Il est opportun de ne pas inventer des concepts applicables à des facultés non encore atteintes, de ne pas créer des solutions aux problèmes qui n’existent pas encore.

Le « robot tueur » est à la robotique ce que le film d’horreur est au cinéma.

Nao n’est pas Freddy.

Il paraît donc opportun de rester sur des propositions simples dans une perspective économique, efficace et réaliste.

2/ Prise de position

2.1 – L’erreur majeure serait de ne pas être dans la réalité.

Il est urgent de dépasser certaines questions et de se situer dans le pragmatisme.

Le secteur de la robotique a besoin d’éliminer certains obstacles et surtout, de ne pas en créer d’autres.

Nous pensons qu’il est impératif d’adhérer aux priorités sociologiques et sociétales et non de tenter de les combattre même inconsciemment.

En d’autres termes, même si le concept d’autonomie est au cœur des débats, il paraît dangereux, pour ne pas dire suicidaire, dans l’immédiat, de s’arcbouter par exemple sur « les droits du robot –sujet de droit » alors que notre société s’emploie depuis des décennies à introduire dans notre système juridique des règles qui remettent en cause des principes fondamentaux de responsabilité dans le seul but de favoriser le sort des victimes à qui il est paraît légitime de « livrer » un responsable, quel qu’il soit, qui indemnisera leur préjudice même lorsqu’
aucune faute n’a été commise.

La loi de 1985 sur les accidents de la circulation nous le rappelle en appliquant le principe de la seule « implication du véhicule ».

La validité de l’aménagement du principe de responsabilité dans l’intérêt général en témoigne encore.

En effet, le caractère constitutionnel du principe de responsabilité civile défini par l’article 1382 du Code civil « ne fait pas obstacle à ce que, en certaines matières, pour un motif d’intérêt général, le législateur aménage les conditions dans lesquelles la responsabilité peut être engagée ».

Ainsi, est conforme à la Constitution la disposition de l’article L 650-1 du Code de commerce prévoyant que les partenaires financiers d’un débiteur soumis à une procédure collective « ne peuvent être tenus pour responsables des préjudices subis du fait des concours consentis, sauf les cas de fraude, d’immixtion caractérisée dans la gestion du débiteur ou si les garanties prises en contrepartie des concours sont disproportionnées » ; en effet, cette disposition permet de favoriser le financement des entreprises en difficulté, et, partant leur pérennité, ce qui « satisfait ainsi à un objectif d’intérêt général suffisant » (Cons. const. 22-7-2005 n° 2005-522 DC § 10 et 12).

2.2 – Pour l’instant, cela évoluera peut-être, le débat sur le robot sujet ou objet de droit est inutile.

Le robot est une « chose ».

La création d’un statut spécial des robots est inutile.

Une déclaration des droits des robots est tout aussi inutile.

Cette position repose sur des constats simples.

2.3 – Dans le prolongement des fameuses lois d’Isaac Asimov, apparues dans les années quarante, auxquelles on ne finit plus de faire référence de manière un peu désuète ou pratique, le concept sonnerait presque comme la découverte d’un droit naturel et tonne comme une revendication : «Donnons des droits aux robots ! ».

On imagine déjà les crimes contre la « robonité » dont aurait à connaître une cour pénale internationale présidée par un juge androïde départiteur ayant numérisé son serment après reconnaissance palmaire sur la « Déclaration Universelle des Droits des Robots, des Hommes et des Citoyens».

Nous serions donc arrivés à un stade presque ultime. Les robots seraient tellement humains qu’ils devraient obtenir quelques droits de l’homme.

Il faut se méfier des apparences.

2.4 – Le premier piège est de considérer aujourd’hui que le robot humanisé est une personne. Le robot, même androïde ou humanoïde, reste un objet. Il n’est pas, sauf à créer une fiction juridique, un sujet de droit capable de droits et d’obligations.

2.5 – Le second piège est de se laisser dépasser par la subjectivité au détriment du raisonnement. Vouloir donner des droits à un « objet robotisé » au même titre qu’une personne physique procède d’une vision subjective. Cette conception reste ancrée dans l’affectif car elle montre, suggère et revendique la proximité humaine, pour mieux susciter une approche émotionnelle. L’humain qui crée la machine d’apparence humaine tente à son tour d’apprivoiser l’humain. Dans cette perspective, le modèle le plus abouti sur le plan du ressenti serait certainement le robot sexuel. Mais la volonté de reconnaître des droits subjectifs aux robots devient elle-même très subjective.

2.6 – Une autre difficulté juridique pourrait être illustrée par la question des droits de la personnalité. Un robot ne peut pas encore défendre ou exploiter son droit à l’image.

Il aura de la peine à solliciter la réparation d’une atteinte portée à sa vie privée.

2.7 – Dès lors, se positionner sur une conception juridique adaptée au robot modélisée sur l’humain comporte le risque d’une vision réductrice qui pourrait nous détourner des vrais enjeux.

Il faut désormais accepter le passage du rêve à la réalité, admettre la transition de l’imaginaire à une industrie qui transforme notre société laquelle attendra des réponses concrètes à des problèmes concrets.
La biologie dépasse déjà la technique.

Même si l’intelligence artificielle fait des merveilles et même si des programmes ambitieux promettent des avancées remarquables, les cellules souches disposent d’une longueur d’avance.

L’humanoïde est déjà supplanté par le clone qui lui, aura, ou a, tous les droits.

Dès lors, même si le véritable enjeu juridique de la robotique est le concept d’autonomie, aboutir rapidement à un régime juridique approprié sans s’acharner à définir à chaque robotique le statut qui lui convient, est peut-être une première étape.

3/ Proposition : une adaptation nécessaire du droit existant

Il ne s’agit pas ici de procéder à une revue exhaustive des problèmes juridiques et d’y apporter une solution mais seulement d’explorer une piste de réflexion.

3.1 – Le concept d’autonomie est au centre du débat mais le piège majeur est sûrement de confondre autonomie et automatisme.

A ce jour (sauf erreur ou méconnaissance de ma part), aucun robot ne dispose d’une réelle autonomie dans la prise de décision mais beaucoup de décisions d’automatisme le place dans une position ou posture autonome.

Le robot évolue de manière autonome grâce à un système d’automatisme derrière lequel on identifie une programmation, un logiciel, des capteurs, des téléopérateurs, etc., et donc la « main de l’homme », quelle que soit la forme qu’elle puisse prendre.

Un robot n’est pas à ce jour doté d’une réelle faculté de discernement.

3.2 – En conséquence, si notre préoccupation est de ne pas faire du « robot » un extraterrestre dans le cadre d’un système de responsabilité illusoire ; il convient d’essayer de rester dans la réalité et donc, de chercher des solutions dans la réalité juridique actuelle.

On peut imaginer un système de responsabilité qui ne va pas s’articuler sur la base d’une notion de discernement par exemple, mais sur la base de la technique de l’automatisme source d’autonomie et ce, dans une application distributive en fonction des situations prévisibles ou imprévisibles.

3.3 – Le droit connaît déjà l’automatisme sous de multiples formes.

o Les remontées mécaniques,
o Le téléphérique,
o La rame de métro sans conducteur,
o Le pilotage automatique d’un avion,
o L’escalator,
o Le régulateur de vitesse,
o etc.

3.4 – Le droit s’empressera de nous rappeler une obligation générale de sécurité et/ou le principe de précaution.

3.5 – La distinction entre responsabilité contractuelle et délictuelle va immanquablement demeurer.
On distingue le dysfonctionnement – arrêt des fonctions – en d’autres termes, une panne empêchant l’utilisation du robot, avec le fait dommageable porté à un tiers par le robot.

3.6 – En matière de responsabilité contractuelle, la distinction entre obligations de résultat et obligations de moyen, son corollaire, est également susceptible de s’appliquer, avec par exemple la prise en compte du degré de participation active de l’utilisateur.

3.7 – En matière de responsabilité délictuelle (atteinte à un tiers au contrat/ accident), le régime de responsabilité peut notamment certainement se nourrir de la responsabilité du fait des choses que l’on a sous sa garde, de la responsabilité du fait des animaux, de la responsabilité du fait des produits défectueux, de la responsabilité en matière d’accident de la circulation, etc.

Toutes les choses, quelles que soient leur nature ou leur consistance, peuvent être retenues comme ayant constitué la source d’un dommage qu’elles soient inertes dans une position normale ou dans une position anormale ou en mouvement.

La question de la garde de la chose, avec notamment l’existence ou l’absence de la qualité de gardien, la détermination du gardien, la disparition de la garde, etc., vont se poser.

3.8 – Les principes de base peuvent s’appliquer mais la robotique va présenter des situations particulières qui nécessitent une adaptation du droit.

Le robot de surveillance dans un site de logistique ou le robot d’assistance à la personne âgée peuvent servir de base à un début raisonnement ou plutôt de questionnement.

3.9 – L’exemple du robot de surveillance (dans une unité logistique par exemple) embarqué dans une voiture sans chauffeur par capteurs peut poser les problèmes suivants (sans prétendre être exhaustif) :
• dysfonctionnement arrêt machine,
• dysfonctionnement atteinte :

o atteinte à un tiers
o atteinte au dirigeant
o atteinte à un salarié

• image « volées » du voisin ou de la voisine,
• enregistrement de la vie des salariés,
• etc.

Des réponses juridiques vont sûrement être trouvées sur ces points.

3.10 – Mais le problème que nous avons tous en tête en matière de robotique est la perte de contrôle, l’emballement de la machine.

L’instauration d’un système d’automatisme et la perte de perte de contrôle de cet automatisme.
C’est l’atteinte à un tiers mais aussi le gardien victime ; une personne âgée victime de son robot d’assistance par exemple.

Il n’est pas certain que l’on puisse parler dans ces cas de transfert ou de maintien de la garde ou de responsabilité sans faute.

3.11 – Il est possible de se livrer à un parallèle avec la responsabilité du fait des animaux.

Confronter le gardien du robot qui n’est plus sous contrôle et le gardien de l’animal échappé.

L’article 1385 du Code civil prévoit que le propriétaire ou l’usager est responsable de son animal “soit que l’animal fût sous sa garde, soit qu’il fût égaré ou échappé”.

En d’autres termes, la fuite de l’animal n’est pas une cause d’exonération de responsabilité.

Ainsi le propriétaire d’un animal qui s’est échappé, qui divague, est responsable de l’accident survenu à un tiers.

Il s’agit d’une responsabilité objective, résultant du seul fait de l’animal. Le fondement actuel de cette responsabilité est une obligation de garantie due par le gardien pour les dommages causés par une chose dont il a la maîtrise. L’absence de faute du gardien est indifférente.

La seule condition est l’intervention de l’animal. Il se déduit de cette évolution qu’il est nécessaire d’établir le fait de l’animal sans autre distinction. L’application de l’article 1385 exige simplement un fait de l’animal, son intervention matérielle dans la commission du dommage (G. Viney et P. Jourdain, Traité de droit civil, Les obligations, Les conditions de la responsabilité : LGDJ, 3e éd. 2006, n° 665).

3.12 – Il pourrait paraître simple d’appliquer ce principe en matière de robotique et chercher uniquement la notion de fait du robot ou d’implication du robot (comme en matière d’accident de la circulation pour le passager/ implication du véhicule celui-ci étant piloté).

Ce que le droit n’arrive pas à régler de manière rationnel parce qu’il est difficile de régir l’instinct, l’inconscient, l’inexplicable ou l’irrationnel (difficile d’analyser la fuite d’une génisse sur une route), le droit le résout par une responsabilité souvent sans faute de manière à garantir à la victime la réparation de son dommage.
Mais en robotique, la technique refait son apparition.

Un dérèglement soudain d’une chose dotée d’automatisme aura une cause fatalement technique.
La société et les acteurs ne pourront se contenter d’une cause irrationnelle de ce qui provient de la recherche scientifique.

Et surtout, le principe du gardien blessé par son propre animal qui ne peut invoquer toute responsabilité (tiers qui aurait excité l’animal) ne pourra s’appliquer à l’utilisateur du robot.

Le gardien privé de discernement (personne âgée atteinte de maladie d’Alzheimer par exemple) pourra difficilement se voir appliquer la jurisprudence qui a décidé qu’une personne inconsciente pouvait être gardien d’une chose, peu importe la cause de l’inconscience, altération des facultés mentales, ou malaise physique, et être responsable.

3.13 – Dès lors, l’expertise technique va reprendre ses droits pour déboucher sur une responsabilité fondée notamment sur la faute de conception, la défectuosité, le défaut de sécurité du produit.

Cela ramène immanquablement à la responsabilité pour faute ou celle des produits défectueux avec la chaîne des contrats et des responsabilités, celle de plein droit du fabricant ou assimilé – producteur, qu’il y ait contrat ou non avec la victime, fabricant contre lequel le prestataire, si sa responsabilité est engagée, peut ensuite se retourner, etc.
(Sachant qu’actuellement, les produits de santé définis par l’article L5311-1 du Code de la santé publique, ainsi que les appareils de santé constituent une exception. Depuis un arrêt C.E. 9 juillet 2003, Marzouk, le service public hospitalier est responsable, même sans faute, des dommages causés par la défaillance des produits et appareils de santé qu’il utilise. De plus, le médecin a une obligation de sécurité de résultat quant au matériel qu’il utilise (Civ. 1ère, 9 nov. 1999) – robots chirurgiens ?).

Un produit est défectueux lorsqu’il n’offre pas la sécurité à laquelle on peut légitimement s’attendre.
Ce système mérite d’être examiné pour vérifier s’il ne peut pas rendre service à la robotique.
Sans entrer dans le détail de ce régime de responsabilité, il est intéressant de souligner les causes d’exonération de responsabilité possibles.

Elles sont énumérées à l’art. 1386-11 du Code civil (liste limitative).

Parmi elles figurent :

• Le risque de développement : le producteur ne sera pas responsable des dommages causés par un produit défectueux si « l’état des connaissances scientifiques et techniques, au moment où il a mis le produit en circulation, n’a pas permis de déceler l’existence du défaut ».

• La conformité du produit avec des normes impératives : le producteur ne sera pas non plus responsable si « le défaut est dû à la conformité du produit avec des règles impératives d’ordre législatif ou réglementaire ». Il faut toutefois que le défaut résulte d’une norme en elle-même défectueuse.

Ce régime paraît indéniablement représenter un intérêt même s’il ne peut s’appliquer en l’état sans être envisagé après l’analyse détaillée de l’univers technique robotique et de la notion de dangerosité anormale ou non du produit, et sans vérifier s’il doit être combiné éventuellement avec d’autres régimes en fonction des situations.

3.14 – Le problème du contrat d’assurance est en arrière-plan.

L’efficacité commande à mon sens de partir sur un régime juridique existant, de l’adapter aux contraintes de la robotique afin de faire admettre aux compagnies d’assurances de garantir le risque lié aux nouveaux produits puisque similaire à d’autres cas existants (métro, etc.).

4/ Autres propositions combinées

• Il serait peut-être utile de créer une agence nationale de sécurité de la robotique (à l’instar de l’agence française sanitaire pour les médicaments) qui serait chargé en lien étroit avec le secteur industriel concerné, de rassurer…, d’analyser le risque potentiel d’un nouveau produit (véhicule sans conducteur), de procéder à des expérimentations officielles, de les valider, et d’autoriser la mise sur le marché.

• Le tout avec un soupçon de lobbying (si ce n’est déjà fait).

Philippe Veber
Le 6 mars 2014