Fact checking vs Community Notes

Le réseau social X d’Elon Musk, ainsi que Facebook et Instagram du groupe Meta de Mark Zuckerberg, ont confirmé avec neuf autres grandes plateformes (Dailymotion, Jeuxvideo.com, LinkedIn, Snapchat, Rakuten Viber, TikTok, Twitch, YouTube) leur engagement contre la haine en ligne en adhérant au code de conduite européen. Comment croire à leur bonne foi alors même que Mark Zuckerberg, Elon Musk et leur nouveau suzerain Donald Trump dénoncent publiquement une supposée censure des réseaux sociaux dans l’UE et décrètent la dérégulation et l’autorégulation ? Comment Mark Zuckerberg peut-il déclarer abandonner le fact-checking uniquement aux Etats-Unis alors même que les réseaux sociaux qu’ils dirigent sont par nature mondiaux ?

Le code de conduite européen

Le code de conduite européen créé en 2016 qui vient d’être actualisé (code de conduite +) est destiné à lutter contre les messages de haine visant des personnes en raison de leur origine, leur religion ou leur orientation sexuelle. Il est intégré dans le règlement sur les services numériques (DSA) qui contraint les plateformes en ligne à lutter contre les contenus illicites. Les signataires s’engagent notamment :

  • à faire tout leur possible pour examiner au moins deux tiers des contenus problématiques signalés par les utilisateurs dans un délai de 24 heures;
  • à respecter des engagements de transparence concernant leurs mesures pour réduire la prévalence des discours de haine sur leurs services, y compris au moyen d’outils de détection automatique;
  • à permettre à un réseau de «rapporteurs», entités publiques ou à but non lucratif disposant d’une expertise en matière de discours haineux illégaux, d’assurer un suivi régulier de la manière dont les signataires examinent les signalements de discours haineux;
  • à participer à une coopération structurée entre les différentes parties prenantes, avec des experts et des organisations de la société civile capables de mettre en évidence les tendances et l’évolution des discours haineux qu’ils observent, contribuant ainsi à éviter que les vagues de discours haineux ne se propagent de manière virale;
  • à fournir des informations, dans le cadre de leurs rapports, sur les résultats des mesures adoptées, ainsi que des données supplémentaires relatives aux discours haineux sur leurs plateformes (rôle des systèmes de recommandation, portée organique et algorithmique des contenus illicites avant leur suppression, etc.);
  • à présenter des données au niveau national ventilées selon la classification interne des discours haineux (tels que la race, l’origine ethnique, la religion, l’identité de genre ou l’orientation sexuelle) et assurer un suivi approprié des contributions issues de la coopération entre les parties prenantes.

Le respect des engagements du code de conduite + sera couvert par l’audit annuel indépendant auquel ces plateformes sont soumises au titre de la législation sur les services numériques et qui contribue à renforcer la transparence et la responsabilité des plateformes.

Télécharger (PDF, 267KB)

Fact checking vs Community Notes

Paradoxalement, Meta a déclaré mettre fin à son processus actuel de vérification des faits par des tiers (fact checking) en faveur d’un nouveau système similaire aux notes communautaires utilisées par X (Community Notes) afin de limiter le nombre de messages supprimés sur la base de plaintes d’utilisateurs et d’autres signaux d’alerte. Mark Zuckerberg a critiqué le fact checking qui commettrait trop d’erreurs et censurerait trop de messages. En réalité, le fact checking suscite depuis longtemps des plaintes de la part des personnalités politiques conservatrices aux Etats-Unis qui estiment qu’elle s’apparente à de la censure. Mark Zuckerberg prétend ainsi restaurer  la liberté d’expression sur ses plateformes, comme si la désinformation, la manipulation d’élection démocratiques, les discours de haine, l’apologie du terrorisme, etc. relevaient de la liberté d’expression.

La nouvelle fonction “Community Notes” fonctionnera de manière similaire à celle de X où la communauté d’utilisateurs décide quels messages sont trompeurs ou inexacts et lesquels ont besoin de plus de contexte. Les notes de la communauté devront être approuvées par un ensemble de personnes ayant des opinions et des perspectives différentes afin d’éviter toute partialité, ce qui suppose un ciblage encore plus poussé des opinions. Toute personne souhaitant contribuer aux Community Notes pourra s’inscrire au programme lors de son lancement. Par ailleurs, Meta prévoit de supprimer les restrictions sur des sujets sensibles comme l’immigration et l’identité de genre. Meta prévoit donc de s’appuyer moins sur les systèmes automatisés pour détecter les violations, systèmes qui continueront néanmoins à rechercher les infractions illégales et critiques, telles que le terrorisme, l’exploitation sexuelle des enfants, la drogue, la fraude et les escroqueries. Mais les violations moins graves devront être signalées par les utilisateurs.

En d’autres termes, les Community Notes sont une nouvelle méthode d’évaluation confiée directement aux utilisateurs du réseaux social qui n’ont ni la formation ni les moyens de vérifier la véracité des faits, contrairement à un journaliste ou à un enquêteur, et qui peuvent par ailleurs être à l’origine de la désinformation créée et véhiculée par leur propre communauté. Un nouveau moyen pour cette oligarchie numérique de s’émanciper de leurs obligations couteuses de modération de contenus pour générer encore plus de revenus en renvoyant la responsabilité sur les utilisateurs. La liberté d’expression n’est donc manifestement qu’un prétexte totalement étranger aux préoccupations de cette oligarchie numérique.

Procédure de sanction

La Commission européenne dispose de la compétence de surveillance et d’exécution de la législation sur les services numériques dans lequel s’inscrit le code de conduite +.

Ouverture d’une enquête

Sur la base de l’évaluation des informations obtenues au cours de sa surveillance ou de sources fiables, la Commission peut avoir des soupçons d’infraction. Dans ce cas, la Commission peut décider d’ouvrir une enquête et de déployer ses outils d’enquête, tels que l’émission d’une demande d’informations, la réalisation d’entretiens et l’inspection des locaux.

Ouverture d’une procédure

Si la Commission continue de soupçonner une infraction à la législation sur les services numériques à la suite de ces mesures d’enquête, elle peut ouvrir une procédure. Avant d’adopter une décision de non-conformité, une décision infligeant des amendes ou une décision infligeant des astreintes, la Commission doit donner aux grandes plateformes concerné la possibilité d’être entendu sur ses constatations préliminaires, y compris sur toute question à l’égard de laquelle la Commission a formulé des objections et toute mesure que la Commission pourrait avoir l’intention de prendre à la lumière de ces constatations préliminaires.

Décision de non-conformité

Si la Commission établit définitivement une violation de la législation sur les services numériques, elle peut adopter une décision infligeant des amendes allant jusqu’à 6 % du chiffre d’affaires et ordonner de prendre des mesures pour remédier à la violation dans le délai fixé par la Commission. Cette décision peut également déclencher une période de surveillance renforcée afin de garantir le respect des mesures que le fournisseur a l’intention de prendre pour remédier à la violation. Une telle décision infligeant une amende peut faire l’objet d’un recours devant les juridictions de l’Union.

Si la Commission estime qu’il existe une urgence en raison du risque de préjudice grave pour les utilisateurs du service à tout moment au cours de l’enquête et avant qu’une décision finale ne soit prise, elle peut décider d’adopter des mesures provisoires proportionnées et temporaires pour atténuer ce risque. Des exemples de mesures provisoires peuvent être des modifications apportées aux systèmes de recommandation, une surveillance accrue de mots clés ou de hashtags spécifiques, ou des injonctions de mettre fin ou de remédier à des infractions présumées. En cas de non-respect des mesures provisoires, des astreintes peuvent s’appliquer allant jusqu’à 5 % du chiffre d’affaires quotidien moyen mondial pour chaque jour de retard dans le respect des mesures correctives, des mesures provisoires et des engagements.

En dernier recours, si l’infraction persiste et cause un préjudice grave aux utilisateurs et entraîne des infractions pénales mettant en danger la vie ou la sécurité des personnes, la Commission peut demander la suspension temporaire du service.

 

 

https://ec.europa.eu/commission/presscorner/detail/fr/ip_25_300

https://www.zdnet.fr/actualites/dsa-un-nouveau-code-de-conduite-pour-facebook-microsoft-ou-encore-youtube-404918.htm

https://commission.europa.eu/strategy-and-policy/policies/justice-and-fundamental-rights/combatting-discrimination/racism-and-xenophobia/eu-code-conduct-countering-illegal-hate-speech-online_en

https://digital-strategy.ec.europa.eu/fr/policies/digital-services-act-package

https://digital-strategy.ec.europa.eu/fr/policies/dsa-vlops

https://digital-strategy.ec.europa.eu/fr/policies/dsa-enforcement

https://digital-strategy.ec.europa.eu/en/policies/list-designated-vlops-and-vloses