Temps de lecture estimé : 3 minutes

La question paraît loufoque au premier abord, mais suscite son lot de spéculations au sein du microcosme de l’Intelligence Artificielle, en effervescence depuis près de 30 ans.

Paris, 23 janvier 2053, rue de Lafayette. Serpentant entre la constellation de vélos devenus la norme de mobilité dans la capitale, une voiture autonome percute un autre véhicule après avoir grillé un feu rouge, et provoque la mort d’un passager. A qui est imputable la responsabilité du crime ? A partir du moment où l’utilisateur de l’IA n’est plus responsable de ses propres actions, le développeur du programme IA le devient-il logiquement ? Pour beaucoup de spécialistes, cette hypothèse est réfutable. Car l’algorithme fonctionne avec une certaine autonomie. La machine étant dotée de capacités d’apprentissage quasi-infinies, grâce à la mise en place du machine learning, comment peut-on imputer accuser un informaticien d’une décision qu’il n’a pas directement programmée ? Personne n’a autorisé le véhicule autonome à griller le feu rouge, et on peut légitimement imaginer qu’il a pris la décision qui lui semblait la plus juste possible. L’IA aura pu estimer, par exemple, il valait mieux prendre le risque de griller le feu rouge plutôt que de se faire emboutir par la voiture de derrière en pleine accélération.

Une myriade de discussions concernant la personnalité juridique de l’IA ont émergé en conséquence. Un chercheur de la Rand Coroporation dresse limpidement le dilemme qui se dresse face aux autorités régulatrices des nouvelles technologies. « Il faudrait que les robots aient la possibilité de faire des procès aussi bien que d’être traduits en justice… mais où s’arrête-t-on ? Va-t-on les autoriser à porter des armes, comme l’édicte le Second Amendement de la Constitution Américaine ? » Une conjecture funeste qui laisse songeur, et nous rappelle furieusement le scénario du long-métrage « I, Robot », théâtre d’un révolte armée des robots contre les humains.

Le sens de l’Histoire

L’avocat français Alain Bensoussan, créateur de l’Association du droit des robots, est lui un ardent défenseur de la personnalité juridique des robots. Il a même porté cette idée révolutionnaire devant la Commission Européenne avec succès en 2017, pour inciter l’entité à créer une directive en ce sens. Le raisonnement d’Alain Bensoussan est fondé sur une prédiction simple : les futures IA auto-apprenantes auront la capacité de prendre des décisions de manière autonome. De facto, on ne pourra plus imputer une potentielle erreur au programmateur de l’algorithme. 

A l’instar de la carte d’identité pour chaque citoyen, il faudrait donc affilier au robot une immatriculation numérique, un capital défini en fonction des risques et une assurance de responsabilité civile. L’initiative a de quoi faire sourire, et semble plus tenir du fantasme que de projet réalisable. Mais l’Histoire récente plaide en faveur de la création d’un statut juridique spécifique pour les robots. Au XXe siècle, l’âge industriel a entériné la naissance de la notion de personnalité morale pour une entreprise. Quelques décennies plus tard, nulle norme juridique ne semble en mesure d’entraver l’irrésistible marche en avant de l’IA, et d’enrayer son acquisition de personnalité juridique propre. Mettre un algorithme en prison relevant d’une chimère, l’essentiel de la procédure se cantonnerait à des modalités d’indemnisation, pour lesquels les entreprises d’IA auront créé des fonds spéciaux. Deux voitures autonomes se percutent à un carrefour ? En quelques secondes, elles pourraient analyser leurs responsabilités respectives et procéder au règlement du sinistre. Ce sujet est aujourd’hui débattu par des juristes du monde entier.

En avril 2018, quelque 200 experts, dont parmi eux une multitude de juristes, ont publié une lettre ouverte dénonçant la décision du Parlement Européen. D’une part, ils estiment l’autonomie des systèmes auto-apprenants n’est qu’une illusion. Il faudrait patienter de nombreuses décennies avant d’atteindre une maturité de décision optimale. D’autre part, ils invoquent une forme de tautologie juridique : attribuer des droits aux robots serait contraire aux sacro-saints les Droits de l’Homme, inscrits dans la Constitution Européenne. Les droits naturels ont été conçus par l’homme et pour l’homme, ils ne peuvent donc en conséquence s’appliquer à une autre forme d’existence, même si ses capacités intellectuelles s’approchent de celles de l’homme. Un tel raisonnement conduit inéluctablement à un cul-de-sac juridique, fondé sur le respect inconditionnel de la loi jusnaturaliste actuelle, jugée immuable et inamovible. L’introduction d’une personnalité morale des robots viendrait chambouler les structures fondamentales de nos structures juridiques, car elles reposent sur le prérequis d’un individu doté de libre-arbitre, capable de discerner le bien et le mal à tout instant.

Pourquoi la Déclaration des Droits de l’Homme, rédigée à une époque prédarwinienne où l’essence humaine appartenait encore à un ordre naturel téléologique, serait-elle immuable ? Si les systèmes d’IA sont capables de prévoir, d’influencer voire de diriger nos comportements, peut-on affirmer avec autant de certitude que nous sommes « nés libres », comme l’affirmait Rousseau et le stipule le premier article de la Déclaration de 1789 ? Octroyer le statut de personnalité juridique aux robots reviendrait à sonner le tocsin des Lumières, et renverrait l’image d’un obscurantisme en pur contraste avec l’image moderne et révolutionnaire des nouvelles technologies robotisées.