Repérer les aiguilles nocives dans la botte de foin : comment les vérificateurs de faits sélectionnent ce qu'ils doivent vérifier
Vérificateurs de faits Full Fact au bureau de Londres. (Photo complète)En juillet, l'organisation de vérification des faits basée à Londres Fait complet utilisé outils d'intelligence artificielle pour analyser le débat public dans les médias et en ligne. Ils ont identifié en moyenne 240 437 éléments de contenu circulant chaque jour qui seraient possibles pour Full Fact ou l'une des douzaines d'autres organisations de vérification des faits qui utilisent ses outils pour vérifier les faits.
Bien entendu, toutes les fausses allégations n’ont pas la même importance. Encore une fois, en utilisant les outils d'IA, Full Fact a pu éliminer plus de 99 % des éléments jugés ni pertinents ni importants à vérifier pour l'organisation – il s'agit d'opinions, de prédictions, d'affirmations répétées ou sur un sujet si abstrait qu'il a peu de chance d'avoir un impact.
La technologie ayant réduit le pool de sélection à plusieurs dizaines d’affirmations qui pourraient être utiles à vérifier, les vérificateurs des faits devaient encore décider quelles affirmations vérifier en tenant compte de l’impact potentiel de l’importance de l’affirmation et d’autres facteurs. Full Fact, le plus grand vérificateur de faits indépendant du Royaume-Uni, effectue un maximum de 10 vérifications de faits complètes et détaillées par jour.
La plupart organisations de vérification des faits suivent un processus globalement similaire : utiliser un mélange de recherche numérique et de connaissances humaines pour passer au crible une myriade de réclamations et se concentrer sur celles qui leur semblent les plus importantes.
josh brolin épouse
Pour ce faire, nous avons développé un modèle rigoureux basé sur les méfaits pour sélectionner les allégations importantes à vérifier. Dans un essai que nous avons mené l’année dernière, nous avons tiré des conclusions utiles sur les conséquences potentielles de fausses allégations spécifiques pour les individus et la société en utilisant une combinaison de preuves présentées lors de vérifications de faits de bonne qualité et de recherches préexistantes.
Selon un étude indépendante de notre essai Mené par des chercheurs doctorants de l'Université du Wisconsin-Madison, le modèle constitue la base d'un moyen permettant aux vérificateurs de faits de sélectionner les affirmations les plus importantes présentant le potentiel de préjudice le plus élevé.
Allégations de « biais » et problème du faux équilibre
Le 7 janvier, le patron du Meta, Mark Zuckerberg est entré dans la mêlée autour de la vérification des faits affirmant que les vérificateurs de faits américains étaient trop politiquement biaisés en raison des affirmations qu’ils choisissent de vérifier. Il a mis un terme au recours par Meta à des vérificateurs de faits indépendants aux États-Unis et a fait allusion à son intention de faire de même dans le monde entier.
Malheureusement pour les vérificateurs de faits, le monde est bien sûr en désordre. Les politiciens ne profèrent pas de mensonges en quantités parfaitement symétriques. Certains font des déclarations vérifiables plus directes que d’autres. Certains parlent simplement davantage. Et certaines affirmations comptent plus que d’autres. Parallèlement, les environnements politiques varient considérablement à travers le monde. Certains pays ont effectivement un parti, d’autres en ont deux et beaucoup sont multipartites, ce qui rend invraisemblable l’idée d’un simple équilibre 50/50.
Le Code de principes du Réseau international de vérification des faits régit la manière dont ses membres vérificateurs de faits opèrent pour refléter cette réalité. Les vérificateurs de faits s'engagent à ne pas maintenir un équilibre artificiellement parfait, mais à ne pas se concentrer indûment sur un seul côté et doivent expliquer chaque année comment ils accomplissent cette tâche plus difficile.
Comment cela fonctionne dans le monde réel : nuire à la portée du public et à la surveillance des puissants
En avance sur l'année Conférence GlobalFact en juin au Brésil 70 des plus grandes organisations mondiales de vérification des faits ont répondu à une enquête que nous avons envoyée en identifiant dans leurs réponses les facteurs qu'elles prennent en compte lorsqu'elles choisissent ce qu'elles veulent vérifier chaque jour.
george jung jeune
Les réponses ont montré les trois facteurs clés : préjudice ; la portée de la réclamation ; et le pouvoir de ceux qui l'ont fait. Le facteur le plus fréquemment cité était le fait que la réclamation pourrait potentiellement causer un préjudice spécifique – actuellement ou bientôt signalé comme facteur par 93 % des personnes interrogées. En deuxième lieu, 83 % des organisations ont indiqué si l'affirmation avait une large audience et si, par conséquent, la vérification des faits pourrait promouvoir les compétences en matière de vérification des faits. Juste derrière, 81 % des répondants ont indiqué que la réclamation provenait d'une personne influente. Les vérificateurs de faits ont tendance à vérifier les faits davantage sur le ou les partis au pouvoir que sur ceux de la minorité ou de l’opposition.
D’autres réponses ont montré que les vérificateurs de faits tiennent compte de considérations pratiques et de la possibilité que les allégations contribuent à des préjudices à l’avenir. Plus d'un tiers (71 %) des personnes interrogées se demandent si la déclaration est réalisable. Plus de la moitié (54 %) déclarent prendre en compte la possibilité que la réclamation cause un préjudice à l'avenir. Et un peu moins de la moitié (47%) prennent en compte les demandes des lecteurs.
L'aspect politique de la revendication est le facteur majeur le moins bien classé, puisque seulement 26 % des personnes interrogées l'envisagent dans leur choix.
arissa seagal
Un essai révèle qu'un modèle prédictif aide les vérificateurs de faits à se concentrer sur les allégations préjudiciables
Il est difficile de prévoir la météo. Il est plus difficile de prédire les effets de l’information sur le comportement, comme l’ont prouvé des décennies de recherche universitaire.
Lorsqu'on leur a demandé d'identifier des fausses allégations spécifiques comme étant potentiellement nuisibles ou non, la plupart des personnes ayant vérifié les faits ont surestimé le potentiel de nombreuses allégations à causer ou à contribuer à des conséquences importantes. un nouveau livre évalué par des pairs Fausses nouvelles : quel mal ? par Peter Cunliffe-Jones soutient.
Et pourtant, comme le livre et de nombreuses autres études montrent les conséquences concrètes des fausses informations sont souvent graves. Ce potentiel d’effets spécifiques a été prouvé à maintes reprises, depuis les dommages généralisés causés à la violence des justiciers individuels et à la santé publique, les guerres et les conflits et les distorsions de la démocratie jusqu’aux effets négatifs sur l’économie, le système judiciaire et la santé mentale des individus.
Mais qu’en est-il de l’échelle ?
Pourtant, la grande quantité de désinformation disponible dans le monde reste intimidante. Une partie de la réponse réside bien entendu dans la conception et la réglementation des médias et des plateformes en ligne. Une partie réside dans l’éducation aux médias. Pour identifier pour le public ce qui est vrai ou faux à grande échelle, nous avons actuellement deux voies principales.
L’un d’entre eux est le système Community Notes utilisé par les plateformes exploitées par X dans le monde entier et par TikTok et Meta aux États-Unis. Ces entreprises affirment que le système peut évaluer la factualité du contenu à une échelle qui va au-delà de ce que peuvent faire les vérificateurs de faits professionnels sur la base du consensus du public. Aussi utile que cela puisse être, le modèle n’est pas conçu en fonction du potentiel de préjudice des réclamations.
L’autre voie consiste donc à utiliser l’IA pour faire correspondre les vérifications des faits avec des contenus nouveaux et existants diffusant des affirmations identiques ou très similaires. Les plateformes utilisent ce procédé depuis longtemps. Selon à un rapport de l'UE Meta a utilisé l'IA de correspondance des revendications pour étiqueter 27 millions de publications supplémentaires sur une période de six mois en 2024. Ce n'est pas une science parfaite, mais les grandes plateformes en ligne dotées des ressources et de l'expertise en IA devraient continuer à investir dans la manière dont elles ajoutent ce contexte vital à davantage d'affirmations les plus importantes.
Les chiffres impliqués sur le terrain sont énormes. Les notes de la communauté peuvent aider les plateformes à aborder plus souvent les faits. Les vérificateurs des faits cherchent à se concentrer sur la vérification des informations les plus potentiellement dangereuses qu'ils voient en ligne dans les médias et dans le débat public plus large ; fournir au public des informations vitales pour assurer sa sécurité. Les plateformes peuvent soutenir ce travail en travaillant avec elles et en amplifiant intelligemment ce travail pour garantir que chaque vérification des faits rédigée fonctionne aussi dur que possible pour donner aux gens le contexte dont ils ont besoin pour comprendre le monde qui les entoure.





































