Alors que les oligarques du Numérique prônent la dérégulation notamment de l’IA sous couvert d’innovation et de prétendue défense de la liberté d’expression après avoir construit leurs empires en moins de 30 ans grâce aux effets de l’autorégulation (irresponsabilité éditoriale, contrefaçon, violation des règles de concurrence, fraude publicitaire, fraude fiscale déguisée en optimisation fiscale, désinformation, ingérence dans des élections démocratiques, apologie du terrorisme, injure ou diffamation, incitation à la haine raciale, atteintes aux mineurs, etc.), la première édition de l’Observatoire de l’IA responsable d’Impact AI analyse la façon dont les salariés perçoivent le déploiement de l’IA dans leur entreprise, trois quarts d’entre eux jugeant nécessaire de réguler le développement de l’IA.
“Une intelligence artificielle responsable est conçue pour respecter des principes éthiques, garantir la transparence et minimiser les risques potentiels, y compris les biais dans ses algorithmes. Elle favorise l’inclusion sociale et la protection des données, tout en étant capable de choix explicables. De plus, elle vise à améliorer le bien-être humain sans causer de dommages sociaux, environnementaux ou de santé”
Nécessite d’une régulation de l’IA
Près de trois quarts des salariés jugent nécessaire de réguler le développement de l’IA, dont 37 % « tout à fait nécessaire », avec une proportion plus importante chez les utilisateurs de l’IA (85 %). 36 % des salariés estiment qu’il faut trouver un équilibre entre innovation, sécurité et responsabilité dans les projets IA des entreprises, 21 % estiment qu’il faut privilégier le respect des principes éthiques, alors que seuls 10 % font de l’innovation une priorité. L’AI Act est jugé plutôt comme une « très bonne ou une bonne chose » par 57 % des salariés interrogés, cette proportion atteignant même 75 % chez les utilisateurs d’IA dans le cadre professionnel.
Nécessité d’une IA responsable
63 % des salariés jugent que le développement d’une IA responsable est « souhaitable ou indispensable », avec une conviction encore plus fortement ancrée chez les utilisateurs d’IA dans le cadre professionnel (83 %), en particulier dans les domaines suivants :
- protection des données personnelles et sensibles (36%),
- respect des droits fondamentaux (27 %),
- amélioration du bien-être humain (25 %),
- respect de l’humain et de sa singularité (24 %),
- respect des principes éthiques (22 %), la garantie de la transparence (21 %),
- respect de la santé humaine (20 %),
- impact environnemental tal (17 %),
- explicabilité des choix (13 %),
- réduction des biais dans les algorithmes (11 %),
- inclusion sociale (9 %).
Par ailleurs, l’IA responsable est considérée comme un facteur d’efficacité dans le travail (44 % des opinions), aide à prendre de meilleures décisions (39 %), tout en consommant moins de ressources (32 %) et en étant transparentes (31 %) et éthiques (30 %).
Nécessité d’une mise en oeuvre transparente
63% des salariés déclarent ignorer tout des démarches mises en oeuvre par leur entreprise pour se mettre en conformité en matière d’IA responsable. Seuls, 9 % indiquent pouvoir se référer à une charte éthique, un interlocuteur ou un comité d’éthique concernant l’IA. 44 % des salariés souhaitent la mise en place d’une surveillance de l’IA, 42 % souhaitant que l’entreprise garantisse une utilisation de l’IA selon des principes éthiques.
A tous ces oligarques du Numérique qui se croient au-dessus des lois, des nations et des peuples : comply or get out !