Enjeux Juridiques

Intelligence artificielle: quel droit pour les robots demain?

Le développement d'une intelligence artificielle suppose une nouvelle législation. - © FRED DUFOUR / AFP

Le développement de l'intelligence artificielle pourrait changer notre quotidien. Mais il devrait aussi impliquer de nouvelles règles de droit. Car cette technologie pause des questions aussi bien éthiques que pratiques, avec des problèmes liés tant aux données personnelles qu'au développement d'une justice pour les robots, voire par les robots. Thierry Vallat, avocat au barreau de Paris, décrypte en partenariat avec France Soir les enjeux juridique de l'arrivée de l'IA.

Le développement des intelligences artificielles (IA) ne cesse de susciter des questions sur le plan juridique.

Que ce soit le robot Sophia, qui s’est vu octroyer la citoyenneté par l’Arabie Saoudite ou AlphaGO qui parvient à surpasser le champion du monde du jeu de Go, les IA démontrent chaque jour plus d’efficacité et sont déjà présentes sur de nombreux marchés.

Et le monde du droit n’est pas épargné puisque IBM a développé avec ROSS une intelligence artificielle capable de compiler une impressionnante masse de documents juridiques pour en extraire les décisions recherchées en un temps record (1milliard de documents traités par seconde).

La parution récente du décret 2018-211 du 28 mars 2018 relatif à l'expérimentation de véhicules à délégation de conduite (voitures dites "autonomes") sur les voies publiques démontre également que la loi s’appuie désormais sur l’expérimentation des IA pour permettre d’envisager, à court terme, une adaptation de la réglementation.

Le récent rapport sur l’intelligence artificielle du député mathématicien Cédric Villani, rendu public le même jour illustre bien les problématiques qui se posent en suggérant que la France se libère d’un cadre juridique et fiscal trop contraignant, qui pourrait décourager la recherche et ainsi freiner notre compétitivité et l’innovation dans ce domaine crucial pour l’avenir.

> L’IA, c’est quoi?

On pourrait définir l’intelligence artificielle comme l’ensemble des théories et des techniques mises en œuvre en vue de réaliser des machines capables de reproduire l'intelligence humaine.

Lire aussi: Algorithmes et intelligence artificielle: des définitions

Grâce aux progrès fulgurants de la technologie, certaines machines dotées d’intelligence peuvent désormais bénéficier d’un certain degré d’autonomie. Elles peuvent donc accompagner directement les hommes dans la réalisation d’un nombre de tâches quotidiennes.

Cette évolution pose des problèmes éthiques, sociaux, mais aussi juridiques comme l’a révélé le rapport Villani.

> La protection des données personnelles

Le rapport vise tout d’abord à renforcer la confiance du citoyen dans l’utilisation de ses données, dans un contexte de suspicion généralisée.

En effet, l'IA est généralement fondée sur le principe de "machine learning" (ou apprentissage statistique des machines) s'appuyant sur le développement de programmes informatiques capables d'acquérir de nouvelles connaissances afin de s'améliorer et d'évoluer d'eux-mêmes dès qu’ils sont exposés à de nouvelles données.

Il s’agira donc de renforcer les législations existantes, en garantissant la transparence et la loyauté dans l’utilisation des données par les algorithmes de l’intelligence artificielle.

La loi pour une République Numérique du 7 octobre 2016 impose ainsi à l’administration d’être totalement transparente lorsqu’elle exécute des traitements algorithmiques.

C’est aussi le RGPD qui régit en Europe la protection des données personnelles et doit garantir une plus grande transparence si le traitement à vocation à traiter des données personnelles des individus. La loi française relative à la protection des données personnelles a ainsi été promulguée le 20 juin 2018.

Voir: Protection des données - ce que le RGPD va changer pour les internautes

En matière de santé par exemple, il s’agira de développer des bases de données, des plateformes d’accès et d’échange d’informations pour faire avancer la recherche.

> Les droits de propriété intellectuelle

L’intelligence artificielle vise également les enjeux du droit de la propriété intellectuelle, à travers par exemple la question de la protection des algorithmes et de leur propriété intellectuelle.

On peut par exemple envisager le recours au droit d’auteur ou aux brevets pour protéger une solution d’intelligence artificielle.

Mais l’intelligence artificielle peut aussi aider une personne humaine à créer une œuvre de l’esprit.

Les tribunaux ont déjà eu l’occasion de se prononcer sur la création d’une œuvre, assistée par ordinateur et il a été jugé qu’une telle œuvre "peut être protégée par le droit d’auteur à condition qu’apparaisse l’originalité voulue par le concepteur".

C’est donc la personne humaine derrière sa machine qui serait titulaire des droits d’auteur, si l’œuvre a été créée avec l’assistance d’une intelligence artificielle.

Mais si, au contraire, l’IA est amenée à créer, elle-même, une œuvre originale, on ne peut aujourd’hui lui accorder des droits d’auteur car il faudrait faire ressortir de cette œuvre le critère d’originalité. Or, il apparaît pour le moins compliqué de reconnaître à une IA qu’elle exprime sa personnalité dans une œuvre de l’esprit.

On comprend donc bien que nos régimes juridiques de droit d’auteur ne sont pas adaptés pour les créations réalisées par une intelligence artificielle.

> La responsabilité des robots

Il s’agit d’une grande question qui se pose au sujet de l’intelligence artificielle: celle de la détermination de la personne responsable en cas de litige.

Qui sera responsable si un robot agissant de manière autonome blesse une personne ou cause un dommage? Des voitures autonomes ont été à l’origine de plusieurs accidents mortels aux Etats-Unis récemment et cela conduit à s’interroger sur le régime juridique applicable.

Voir aussi: Voiture autonome - la course continue malgré l'accident d'Uber

Or, il n’existe pas aujourd’hui de régime juridique propre à l’intelligence artificielle, et aucun fondement juridique n’y apporte de réponse spécifique.

On doit donc tenter de trouver des réponses avec les lois existantes, comme celle de la responsabilité civile délictuelle, régie en France par les articles 1240 et suivants du Code civil.

La règle est que chacun doit répondre de ses actes. Mais la personne responsable sera-telle l’humain à l’origine de l’algorithme défaillant ou bien le robot qui provoque le trouble?

D’où les actuels débats sur la création d’une "personnalité robot" puisque celui-ci ne dispose pas de la personnalité juridique, ce qui interdit aujourd’hui toute possibilité d’indemnisation du dommage par le robot, qui ne dispose d’aucun patrimoine propre.

C’est pourquoi le Parlement européen a demandé à la Commission, dans sa résolution du 16 février 2017, d’examiner "la création, à terme, d’une personnalité juridique spécifique aux robots, pour qu’au moins les robots autonomes les plus sophistiqués puissent être considérés comme des personnes électroniques responsables, tenues de réparer tout dommage causé à un tiers; il serait envisageable de conférer la personnalité électronique à tout robot qui prend des décisions autonomes ou qui interagit de manière indépendante avec des tiers".

Dans ses recommandations pour la création d’un droit civil des robots, le Parlement Européen propose plusieurs solutions au titre de la responsabilité de l’intelligence artificielle et on retrouve:

- La mise en place d’une assurance obligatoire;

- La création d’un fonds de compensation afin d’indemniser les accidents provoqués par une intelligence artificielle (comme l’ONIAM pour les accidents médicaux);

- La création d’un numéro d’immatriculation pour faciliter l’identification des robots en leur attribuant un numéro propre;

- Et donc la consécration d’une personnalité juridique propre aux robots afin de créer des règles spéciales pour la mise en œuvre de leur responsabilité.

Au-delà du buzz et des polémiques qu’a créé la récente attribution de la citoyenneté saoudienne au robot Sophia, la question est donc bien de savoir si demain, les robots peuvent devenir des êtres juridiques à part entière avec des droits et des obligations, comme l’annonçait en 1942 l’écrivain américain Isaac Asimov auteur des lois de la robotique?

Notre projet de réforme de notre droit de la responsabilité civile en France n’est pas si audacieux et n’envisage à aucun moment ces enjeux pourtant majeurs.

> IA et Justice

Un autre enjeu juridique d’importance que pose l’intelligence artificielle réside dans la question de la justice prédictive. Pourrait-il y avoir des algorithmes prédictifs qui jugeraient à la place du juge humain?

Des tests ont été effectués en 2017 à Rennes et Douai et se sont révélés des échecs. C’est que la justice dite prédictive présente des risques sérieux, dont notamment le jugement sur des critères non transparents et le conformisme à ce qui a déjà été jugé.

Alors qu’aux Etats-Unis de nombreux Etats ont déjà adopté un algorithme d’évaluation des risques pour aider les juges à décider si un prévenu doit être ou non emprisonné avant son procès, notre Conseil d’Etat a fait remarquer que si l’intelligence artificielle promet certes des évolutions bénéfiques pour la qualité et l’efficacité de la justice, les progrès de la technologie ne doivent cependant pas masquer des risques pour l’office du juge et l’accès à la justice.

Le projet de loi de programmation pour la justice 2018-2022, présenté en Conseil des ministres en avril 2018 par la garde des Sceaux, Nicole Belloubet, s’inscrit pourtant dans cette logique d’utilisation massive d’algorithmes juridiques et suscite en conséquence bien des inquiétudes.

Il parait indispensable que l’utilisation des algorithmes soit fondée sur les principes de neutralité et de transparence, afin que les juges puissent conserver leur indépendance et liberté d’appréciation, garante d’une Justice équitable et individualisée.


Voir la version optimisée mobile de cet article