Charte d’utilisation de l’IA au sein des juridictions administratives

Élaborée par le Conseil d’État, cette charte d’utilisation affirme la primauté humaine, stipulant que l’IA doit demeurer un simple outil d’assistance sans jamais se substituer au pouvoir décisionnel des magistrats. Les utilisateurs sont invités à une vigilance accrue face aux biais cognitifs et aux risques d’erreurs techniques, rendant une vérification humaine systématique indispensable. La charte interdit formellement le transfert de données confidentielles vers des systèmes externes afin de préserver le secret professionnel. Enfin, la juridiction s’engage sur la voie d’une IA responsable, privilégiant la transparence, la sécurité des données et le respect des enjeux environnementaux.

1. Portée et cadre juridique

  • Champ d’application : Le document s’applique à l’ensemble des membres et personnels de la juridiction administrative, incluant le Conseil d’État, les cours administratives d’appel, les tribunaux administratifs et la Cour nationale du droit d’asile.
  • Cadre juridique : La charte s’aligne sur les cadres juridiques nationaux et européens, notamment :
    • Le Règlement européen sur l’intelligence artificielle (RIA) du 13 juin 2024;
    • Le Règlement général sur la protection des données (RGPD);
    • La loi française « informatique et libertés ».

2. Principes généraux

Primauté de la décision humaine

  • Interdiction formelle : Aucune décision de justice ne saurait être prise de manière automatisée et sans contrôle humain.
  • Domaines réservés à l’humain : L’IA ne doit pas être utilisée pour des tâches qui constituent le cœur de la fonction juridictionnelle, telles que :
    • Interpréter une règle de droit ou une jurisprudence;
    • Établir ou apprécier des faits;
    • Appliquer une règle à un cas d’espèce;
    • Mener un raisonnement juridique;
    • Proposer une solution à un litige.

Maîtrise des biais

Type de Biais

Description

Biais d’ancrage Difficulté à se départir d’une première proposition formulée par l’IA, surtout si elle est présentée comme “prête à l’emploi”
Biais de confirmation Tendance de l’IA à fournir des réponses qui confirment les hypothèses ou croyances préexistantes de l’utilisateur
Biais d’apprentissage Reflet dans les résultats des tendances majoritaires, des préjugés ou des partis-pris présents dans les vastes corpus de données d’entraînement
Biais discriminatoire Reproduction d’éléments discriminatoires (racisme, sexisme, etc.) présents dans les données d’entraînement issues d’internet

Responsabilité de l’utilisateur

  • Vérification systématique : Face au risque d’« hallucinations » (création d’informations fictives comme des jurisprudences ou textes de loi inexistants), toute information générée par une IA doit être rigoureusement vérifiée par d’autres moyens.
  • Responsabilité pleine et entière : L’utilisateur qui intègre un contenu généré par l’IA dans une production professionnelle “reprend à son compte ces éléments comme si elle ou il les avait écrits elle-même ou lui-même”. Il est impossible de “se défausser sur l’IA” en cas d’erreur ou d’omission.

Impact environnemental

  • Impact environnemental : Une requête sur un système d’IA grand public consomme dix fois plus d’électricité qu’une recherche classique, en plus de l’impact lié à la consommation d’eau et aux ressources naturelles.
  • Principe de frugalité : Il convient de se demander si un autre moyen, moins énergivore (comme un moteur de recherche classique), ne permettrait pas d’atteindre le même résultat.

3. Sécurité et confidentialité

  • Principe fondamental : Donner une information à un chatbot – dans le prompt ou par une pièce jointe – équivaut à la publier sur internet.
  • Interdiction stricte : Aucun document couvert par un secret ne doit être versé dans un SIA externe.
  • Exemples d’usages formellement proscrits :
    • Télécharger des mémoires, des pièces de dossiers contentieux, des notes de rapporteur ou des projets de décision.
    • Soumettre un projet de texte normatif (ex: projet de décret) couvert par le secret des délibérations.
    • Faire corriger un projet de conclusions de rapporteur public, qui peut contenir des informations personnelles.
    • Utiliser l’IA pour résumer un dossier de procédure ou analyser des expertises médicales confidentielles.

4. Développement de Systèmes d’IA Internes

  • Périmètre d’application maîtrisé :
    • Les projets envisagés se limitent à des tâches à faible risque, comme l’automatisation de l’anonymisation ou l’aide à la recherche juridique.
    • L’IA ne servira qu’à des tâches préparatoires, sans incidence sur la décision finale.
    • Un principe de réversibilité est affirmé, garantissant la capacité de réaliser les tâches manuellement.
  • Conditions de la confiance :
    • Transparence : La juridiction s’engage à communiquer publiquement sur les SIA développés, leurs usages et les garanties de contrôle humain.
    • Performance et durabilité : Le déploiement se fera après une phase d’expérimentation et d’évaluation des bénéfices par rapport aux coûts (humains, financiers, environnementaux). Une évaluation environnementale sera menée.
    • Autonomie stratégique : Les SIA internes devront offrir des garanties de souveraineté et de sécurité, avec une attention portée à la localisation des serveurs et une conformité aux recommandations de l’ANSSI.

 

Télécharger (PDF, 760KB)