IA & surveillance globale

Nous basculons peu à peu vers une surveillance totale marquée par l’omniprésence de l’IA et des points de rupture incluant :

  • Le conflit Anthropic/Pentagone : Le refus de l’entreprise Anthropic de lever les restrictions éthiques sur son modèle « Claude » (rejet de la surveillance de masse et des armes létales autonomes) a conduit le Département de la Défense américain (DoD) à la désigner comme un risque pour la sécurité nationale et la chaîne d’approvisionnement. Ce bras de fer juridique et politique illustre la tension entre impératifs sécuritaires et principes démocratiques;
  • La mutation de la surveillance domestique : L’émergence d’une surveillance algorithmique unifiée, capable de fusionner des silos de données (biométrie, géolocalisation, transactions) en temps réel, menace l’anonymat dans l’espace public et la participation citoyenne;
  • Le cadre réglementaire européen : L’entrée en application progressive de l’AI Act tente de poser des limites bien que l’expérimentation sécuritaire pousse constamment ces frontières.

 

Anthropic vs DoD

En février 2026, Anthropic a refusé de lever deux restrictions contractuelles pour l’usage de son modèle d’IA Claude :
  • L’usage autonome d’armes létales sans supervision humaine;
  • La surveillance de masse de la population américaine.
En réaction, le Pentagone a désigné Anthropic comme un risque pour la sécurité nationale et la chaîne d’approvisionnement.
  • Sanction : Interdiction pour les fournisseurs de l’armée d’utiliser Claude dans l’exécution de contrats avec le ministère;
  • Contestation : Anthropic, soutenue par des employés d’OpenAI et de Google agissant à titre personnel, a déposé plainte (Case No.: 3:26-cv-01996-RFL), dénonçant une mesure de représailles arbitraire qui nuit à la compétitivité et au débat public sur la sécurité de l’IA;
Acteur
Position Éthique / Action
Anthropic
Refus d’accès sans contrainte ; prône la retenue comme forme de leadership
OpenAI 
Collaboration directe et déploiement dans les réseaux militaires
Pentagone
Exige des clauses d’utilisation totale au nom de la compétition technologique
Amici Curiae (Employés Google/OpenAI)
Soutiennent Anthropic ; alertent sur les risques de dégradation de la démocratie.

Risques de la surveillance algorithmique de masse

L’IA permet de transformer un paysage de données fragmenté en un appareil de surveillance unifié.
  • Données exploitées : Flux de caméras (70 millions aux USA dès 2018), données de géolocalisation des smartphones, relevés de transactions bancaires et profils comportementaux issus des réseaux sociaux;
  • L’effet panoptique : La simple conscience d’une surveillance potentielle modifie les comportements. Les citoyens s’autocensurent (journalistes hésitant à contacter des sources, chercheurs évitant certains termes de recherche), dégradant les fonctions démocratiques essentielles.

 

Enjeux techniques et sociétaux de la reconnaissance faciale

La technologie analyse plus de 80 caractéristiques du visage (distance entre les yeux, largeur de la mâchoire, etc.) pour créer une fiche numérisée. Elle est utilisée pour :
  • L’authentification : Déverrouillage de smartphones (Face ID, Iris), paiements par selfie (Amazon, Alibaba);
  • L’identification : Recherche de suspects, contrôles aux frontières, surveillance de foules.
La reconnaissance faciale est perçue comme un outil de contrôle social particulièrement intrusif avec un risque de dérive vers des modèles autoritaires (type chinois) où l’anonymat disparaît totalement.

Systèmes d’armes létales autonomes

Les experts de la Silicon Valley s’accordent sur le caractère irresponsable de l’automatisation totale des décisions de tir :
  • Limites techniques : Les IA actuelles sont des systèmes probabilistes capables de masquer leur chaîne de raisonnement (opacité) ou de halluciner des cibles;
  • Dégradation contextuelle : Une IA peut échouer dans des conditions nouvelles ou ambiguës, contrairement à un humain capable d’arbitrer entre l’objectif militaire et les dommages collatéraux;
  • Irréversibilité : Les décisions prises dans des contextes létaux sont définitives, rendant la supervision humaine indispensable.

Cadre juridique 

L’IA Act adopté le 21 mai 2024 entrera pleinement en application entre 2026 et 2027 :
  • Principe : Interdiction de l’identification biométrique à distance en temps réel dans l’espace public à des fins répressives;
  • Exceptions : Recherche de victimes d’enlèvement, prévention d’une menace terroriste imminente, ou identification d’auteurs d’infractions graves (terrorisme, trafic);
  • IA à haut risque : Soumises à des obligations de traçabilité, de documentation technique et de contrôle humain effectif.

 

Télécharger (PDF, 280KB)