IA ou la science sans conscience

“Science sans conscience n’est que ruine de l’âme” (Rabelais)

“Science sans conscience n’est que ruines et larmes” (Alpha Blondy)

“Des technocrates maigrichons

Vous prédisaient des jours meilleurs

Des aurores de l’expansion

A la sournoise nuit des chômeurs” (Bernard Lavilliers)

La guerre des données et l’IA sont aujourd’hui au cœur de la transformation digitale de la société. Le 16 février 2017, le Parlement européen a demandé à la Commission de proposer un cadre législatif sur la responsabilité des robots et de l’IA. La Commission vient de publier son rapport pour une “intelligence artificielle axée sur le facteur humain”. Il s’agit de garantir “un niveau élevé de protection des données, de droits numériques et de normes éthiques tout en tirant parti des avantages et en évitant les risques des développements de l’intelligence artificielle et de la robotique”.

Analyser l’IA sous l’angle de la responsabilité, c’est privilégié une approche curative et non préventive, le principe de précaution et l’éthique étant sacrifiés au nom de l’innovation technologique et de la compétitivité. Le groupe d’ experts analyse l’IA sans innovation juridique majeure et tendent à vouloir appliquer les principes de responsabilité objective et de responsabilité pour faute. Ils conclue notamment:

  • qu’une personne exploitant une technologie autorisée qui comporte un risque accru de préjudice pour autrui devrait être soumise à une responsabilité stricte pour les dommages résultant de son exploitation. L’assurance responsabilité civile obligatoire pourrait donner aux victimes un meilleur accès à l’indemnisation et protéger les auteurs potentiels de délits contre le risque de responsabilité (responsabilité objective);
  • qu’une personne utilisant une technologie qui ne présente pas de risque accru devrait être tenue de respecter les obligations de sélectionner, d’exploiter, de surveiller et d’entretenir correctement la technologie utilisée et devrait être responsable du non-respect de ces obligations en cas de faute (responsabilité pour faute);
  • que dans les situations où un prestataire exerce un degré de contrôle plus élevé que le propriétaire ou l’utilisateur d’une IA, il convient d’en tenir compte pour déterminer le partage de responsabilité;
  • que les technologies numériques émergentes devraient être dotées de fonctions d’enregistrement, lorsque les circonstances le justifient, et l’absence d’enregistrement ou d’accès raisonnable aux données enregistrées devrait entraîner un renversement de la charge de la preuve afin de ne pas porter préjudice à la victime;
  • qu’il n’est pas nécessaire de conférer une personnalité juridique aux dispositifs autonomes au motif que le préjudice qu’ils peuvent causer peut et doit être imputable à des personnes existantes.

 

Mais compte tenu du caractère autonome des technologies de l’IA et du machine learning qui les distinguent des autres choses dont on a la garde, l’innovation juridique aurait pu consister à imaginer de nouvelles formes de personnalités juridiques en fonction du degré d’autonomie, avec des droits, des devoirs et surtout, une éthique.

Télécharger (PDF, 1013KB)

Télécharger (PDF, 949KB)

https://www.droit-technologie.org/actualites/les-experts-de-la-commission-analysent-la-responsabilite-appliquee-a-lintelligence-artificielle/

https://www.zdnet.fr/blogs/green-si/europe-de-l-ia-le-debut-d-une-vision-39899523.htm