/
Maître Véronique Rondeau-Abouly > Domaines de Compétences > Droit numérique > Intelligence Artificielle (IA) et Responsabilité

Intelligence Artificielle (IA) et Responsabilité

 

Parler de la responsabilité de l’intelligence artificielle IA c’est encore pour partie de la prospective.

 

Actuellement, de nombreux robots fonctionnent grâce à l’intelligence artificielle IA, on citera selon liste non exhaustive :

 

  • Les divers robots qui œuvrent dans le domaine de la santé (robots d’aide aux diagnostics, robots chirurgicaux, robots d’aide aux soins)
  • Le robot drone aérien,
  • Les voitures robots,
  • Le robot de conversation chatbot,
  • Le robot de conversation SIRI pour les utilisateurs d’iPhone.

 

Pour l’utilisation de ces robots qui ne sont rien d’autre que des « machines » et qui utilisent de l’IA, des règles de responsabilité sont déjà  applicables.

Pour la robotique actuelle au sens très large du terme, se cumulent deux régimes de responsabilité :

  • La responsabilité du fait des produits défectueux,
  • La responsabilité du fait des choses.

 

Ces deux régimes s’appliquent du fait de l’usage et du fonctionnement et du robot dans son aspect technique général.

Mais l’utilisation d’un robot peut aussi engendrer d’autres régimes de responsabilité relativement à leur détention (brevets, responsabilité sur les dessins et modèles, droit d’auteur, savoir-faire…), sans compter également la responsabilité du fait des nouveaux droits comme la protection des données à caractère personnel notamment pour l’ensemble des objets connectés.

 

Par contre, l’intelligence artificielle IA dépasse de beaucoup la robotique puisque c’est une discipline scientifique qui repose sur un triptyque qui lie ensemble :

  • Logiciels,
  • Algorithmes de calcul,
  • Données au sens très large du terme car avec la mise en œuvre du RGPD, l’erreur à ne pas commettre est de circonscrire le terme de donnée uniquement à la donnée personnelle.

En matière d’intelligence artificielle IA forte ou faible, la « donnée » c’est une « information scientifique et technique » qui elle-même a fait l’objet de traitement et de structuration, pour l’apprentissage du système du « logiciel et d’un algorithme » avec l’objectif :

 

  • Ou de simuler les capacités cognitives de l’être humain pour réaliser une tâche déterminée (l’intelligence artificielle IA faible)
  • Ou d’accroître la simulation des capacités cognitives humaines grâce à l’apprentissage d’un langage déterminé qui peut tendre à inclure dans le choix à faire par l’algorithme une « conscience plus ou moins développée » avec une « intentionnalité propre» et on parle alors d’intelligence artificielle ou IA forte

 

L’intelligence artificielle IA forte n’est pas à ce jour opérationnelle même si les recherches sont toujours en cours.

 

C’est donc de la responsabilité de l’intelligence artificielle IA faible dont il est question dans cet article.

Dans son rapport, Cédric VILLANI met en exergue que l’IA doit dès maintenant répondre à des impératifs d’éthique desquels s’engendreront les régimes de responsabilité à venir, qui sont en pleine construction et où chacun a sa part à prendre :

Chercheurs, industriels, clients – juristes – utilisateurs.

Donc l’utilisation de l’IA en termes de responsabilité va au-delà du régime particulier applicable au robot.

En page 139 et suivantes, le rapport de « Cédric VILLANI » pose le problème ainsi.

 

Actuellement, les réflexions sur l’intelligence artificielle IA se sont cristallisées autour des algorithmes du quotidien, c’est-à-dire ceux qui organisent nos fils d’actualité, qui déterminent nos décisions d’achat, bref, ils affectent notre accès à l’information, à la culture, à l’emploi et au crédit.

 

Rapport VILLANI page 139

 

Donc nécessairement, ces « algorithmes du quotidien » ne sont pas neutres dans l’organisation d’une vie, et il faut  que les « potentialités offertes par cette technologie » fonctionnent dans le respect de nos valeurs et formes sociales, et il est indispensable que l’intelligence artificielle IA respecte une éthique.

Son rapport donne en page 139 sur l’éthique appliquée à l’intelligence artificielle IA la définition suivante :

« L’éthique est précisément cette branche de la philosophie qui tente de distinguer le bien du mal en tentant de définir l’idéal vers lequel tendre en soulignant les chemins qui nous en éloignent ».

Et justement, Cédric VILLANI propose de développer un cadre éthique pour le développement de l’intelligence artificielle IA qui pourrait reposer sur cinq piliers :

 

  1. Accroître la transparence,
  2. Accroître l’auditabilité des systèmes autonomes,
  3. Développer les capacités nécessaires pour observer,
  4. Pour comprendre et auditer le fonctionnement
  5. Investir dans l’explicabilité.

 

On va reprendre en synthèse les propositions faites pour établir ces cinq piliers de l’éthique non sans avoir insisté sur un point important, dont il ressort que pour Cédric VILLANI c’est le cinquième pilier de l’IA ,soit son explicabilité ,qui sera pour l’organisation des systèmes de responsabilité à venir très importante.

 

Dans sa déclaration liminaire sur la nécessité pour l’intelligence artificielle IA d’un fonctionnement éthique, le rapport met en exergue que l’éthique c’est l’étude de la distinction entre le bien et le mal.

 

Bien sûr que oui, mais avec toute la difficulté de définir ces deux notions du bien et du mal qui sont polarisées et en mouvement d’autodéfinition permanent et toujours à renouveler.

 

Et si donc pour parler d’éthique en matière d’intelligence artificielle IA, il fallait aller « au-delà du bien et du mal » en recherchant du côté du philosophe Gilles DELEUZE, qui en donnait la définition suivante :

 

« L’éthique ce n’est pas ce que l’on dit qu’on veut faire, qu’on voulait faire, que l’on pourrait faire, l’éthique au final, c’est ce que l’on fait ».

 

En un mot, l’éthique, c’est la « valeur que l’on porte au quotidien ».

 

Rapportée à l’intelligence artificielle IA, la vérification de l’éthique alors devrait se focaliser sur son explicabilité c’est-à-dire :

 

  • La vérification d’un faire explicable, qui passerait par des systèmes d’auditabilité autonomes de l’explicabilité du faire et ce avec un contrôle continu sur le comportement de la « donnée» de l’intelligence artificielle IA.

 

Ce que souligne le rapport de Cédric VILLANI en page 140 où l’on relève que :

 

Il faut adapter la protection des droits et des libertés au regard des abus potentiels liés à l’utilisation des systèmes d’apprentissage machine.

 

Or, il s’avère que la législation actuelle, centrée sur la protection de l’individu, n’est pas en phase avec la logique introduite par ces systèmes, c’est-à-dire l’analyse d’une masse considérable d’informations afin d’identifier des tendances et des comportements masqués et leurs effets sur des groupes d’individus.

 

Pour combler ce décalage, il est nécessaire d’agir en créant des droits collectifs sur les données.

 

Parallèlement, il faut s’assurer que les organisations qui déploient et utilisent ces systèmes demeurent responsables devant la loi des éventuels dommages causés par ceux-ci.

 

Et le rapport confirme que bien sûr, les modalités de ce régime de responsabilité s’ils restent à définir, la loi informatique et liberté de 1978 et le RGPD de 2018 en posent déjà les principes et les bases.

 

Néanmoins, rapporté à l’intelligence artificielle IA, il faut aller beaucoup plus loin justement par son explicabilité, ce qui suppose de pouvoir avoir accès à la boîte noire des systèmes algorithmiques.

 

Pour Cédric VILLANI, il convient de ne pas se tromper de débat dans l’explicabilité du système algorithmique, ce n’est pas de la vérification du code qu’il s’agira, mais de pouvoir observer :

 

  • Les données d’entrée : input.
  • Les données de sortie : output.

 

Donc, l’explicabilité de l’intelligence artificielle IA ici, c’est celle des systèmes à base d’apprentissage particulièrement la technique d’apprentissage profond ou deep learning dont pour faire simple on rappellera que :

 

  • Le machine learning lui repose sur une programmation classique : écriture à la main d’un modèle déductif en posant des règles générales dont on infère les conclusions pour le traitement d’un cas particulier.

 

  • Alors que le deep learning pour sa part ne s’appuie pas sur des règles établies par avance.

 

Il comporte en lui-même une part d’incompréhension naturelle, où l’on est dans l’incapacité à décrire de façon intelligible le résultat produit au regard du poids absolument immense des données d’input.

 

L’immensité produite par son cheminement dans l’algorithme de calcul, par des millions de paramètres à prendre en compte, engendre des choix propres dont on ne peut inférer à l’avance les conclusions.

 

Le rapport VILLANI souligne en page 142 que dès lors :

 

  • L’apprentissage profond ou deep learning de plus en plus utilisé amène à des décisions importantes dont le résultat final apparait comme sans explication a priori autre que celui d’avoir été calculé par l’intelligence artificielle IA.

 

Dès lors que l’intelligence artificielle IA intervient aujourd’hui dans des domaines aussi décisifs pour la vie des particuliers que l’accès au crédit, à l’emploi, au logement, à la justice, ou à la santé, l’acceptabilité sociale de l’intelligence artificielle IA repose donc bien sur son explicabilité c’est-à-dire sa justification de l’éthique du faire, chère au philosophe Gilles DELEUZE.

 

Pour justifier les solutions d’explicabilité, le rapport VILLANI met en évidence par des exemples de fonctionnement que Google ou YouTube en citant également des retours d’expérience américaine où il apparait que l’intelligence artificielle IA peut donner lieu à la reproduction de discriminations :

 

  • Offres d’emploi systématiquement proposées aux femmes moins bien rémunérées par Google,
  • Réaction tardive des algorithmes de modération sur YouTube,
  • Et reproduction d’inégalités sociales dans des choix de quartiers à surveiller ou de prédiction de criminalité stigmatisant des populations, (utilisation IA américaine).

 

Ainsi, l’intelligence artificielle IA peut amplifier des discriminations, et/ou des inégalités sociales.

 

Quel est le facteur qui dans l’apprentissage profond ou deep learning peut générer ces « biais » discriminatoires et/ou rendre la décision non équitable ?

 

La donnée bien sûr, et c’est finalement elle qui prend une valeur déterminante dans le tryptique de fonctionnement de l’intelligence artificielle IA :

 

(Logiciel + algorithme + donnée).

 

En conclusion de son développement sur l’éthique de l’intelligence artificielle IA, Cédric VILLANI conclut au nécessaire développement des audits d’intelligence artificielle IA en proposant des solutions :

 

Sur la garantie pour les conséquences des résultats de l’IA :

 

  • Il souligne à cet égard la nécessaire organisation de la possibilité d’obtenir des comptes quant aux décisions automatisées en surmontant un certain nombre d’obstacles juridiques, tels que la protection de la propriété intellectuelle et du secret des affaires, la protection des données personnelles, la préservation du secret entourant nécessairement un certain nombre d’actions d’ordre régalien et de préservation de la sécurité et de l’ordre public.

 

Il y a donc bien un besoin général de configurer une fonction tampon entre les sphères du secret et de l’information légitime.

 

Rapport VILLANI page 143.

 

La solution passe au sens large par le développement de l’audit des intelligences artificielles IA, ce qui implique d’explorer les pistes suivantes :

 

  • Constitution d’un corps d’experts dotés des compétences requises pour procéder à des audits d’algorithmes et surtout des bases de données sur pièces.

 

Ceci supposerait d’ailleurs que des instances de régulation sectorielle puissent déterminer ces règles d’audit en les appliquant également à des domaines spécifiques.

 

  • De même, des audits certifiés avec force probante seront nécessaires en matière de procédure contentieuse pour vérifier par exemple une suspicion ou les dires d’une partie car les seules observations externes du comportement des algorithmes ou de leurs effets ne pourront suffire.

 

Et notamment, à l’occasion d’une enquête judiciaire, ou d’une autorité administrative indépendante, il pourra être nécessaire de vérifier sur pièces.

 

  • Il ne sera pas forcément utile ou même possible de tirer des conclusions à partir de l’examen d’un code source.

 

Rapport VILLANI page 143.

 

Et c’est bien sur les données d’entrée, et le traitement des données de sortie que devront être testées l’équité, la loyauté, et la transparence d’un programme d’intelligence artificielle IA.

 

Le système de responsabilité de l’intelligence artificielle IA en construction et à venir reposera sur des fondements spécifiques et le critère de l’explicabilité du système d’IA ne pourra être uniquement la seule affaire des développeurs et des informaticiens.

 

Développer un système d’intelligence artificielle IA, requiert aux côtés du chercheur du développeur et de l’informaticien le juriste de la donnée qui aura de plus en plus sa place à prendre.

 

Il faut que ces spécialités transversales s’unissent pour respecter ensemble :

 

  • Le cadre légal de l’activité professionnelle,
  • La protection de la vie privée sous l’angle du RGPD,
  • Les règles sur les droits fondamentaux et la discrimination,
  • L’intégration de la connaissance des droits sur la propriété intellectuelle,
  • La connaissance des théories normatives de déontologie et leurs applications à des circonstances particulières,
  • Reconnaître l’utilisation de la donnée comme une science, (d’où vient-elle, qui l’a collectée, est-ce une donnée issue de la recherche scientifique ou pas, comment a-t-elle été collectée, quelle est sa source, comment a-t-elle été structurée…).

 

Et cette explicabilité sur l’éthique de la donnée amènera nécessairement à instaurer des études d’impact sur les discriminations que le rapport désigne par l’acronyme DIA (Discrimination Impact Assessment) qui pourrait emprunter la même finalité et fonctionnement que les études d’impact quant à l’impact potentiel des activités de traitement des données personnelles sur les droits et intérêts des personnes concernées (Privacy Impact Assessment) ou PIA.

 

Ainsi, les « exploitants » et « constructeurs » des systèmes d’intelligence artificielle IA auront à charge d’évaluer eux-mêmes les impacts de cette activité, d’y apporter préventivement les correctifs requis et de pouvoir justifier en cas de contrôle qu’ils ont mis en œuvre toutes les mesures nécessaires pour maitriser l’ensemble du processus.

 

Pour Cédric VILLANI, il est plus que recommandé de capitaliser sur cette logique qui fait du Droit un soutien à l’innovation en concrétisant un effort d’innovation en faveur de l’égalité à l’ère numérique.

 

Penser « l’éthique dès la conception » doit et devra être une préoccupation essentielle pour tout chercheur, constructeur, client, utilisateur d’un système dintelligence artificielle IA fut-elle déjà en fonctionnement.

 

Les règles sur l’explicabilité, l’éthique et la loyauté doivent être respectées dès maintenant et déjà la Commission Européenne s’en préoccupe puisque des discussions sont menées actuellement et ces nouveaux principes et cette réglementation s’esquissent maintenant.

 

L’intelligence artificielle, c’est donc bien un travail d’équipe fédérée autour de compétences transversales qui impliquent aussi l’intervention d’un juriste qualifié sur la connaissance et le droit applicable à la donnée.

 

Pour tous vos projets d’intelligence artificielle IA, n’hésitez pas à rechercher les conseils d’un juriste « Data Scientist », le Cabinet Rondeau-Abouly peut être consulté utilement à cet égard : Maître RONDEAU-ABOULY, Avocat à Marseille 51, rue Sainte 13001 Tel : 04 91 55 52 61, mail : cabinet@rondeau-abouly.com.

 

 

 

 

Contactez-nous