Catégorie : factchecking

decodex-affiche

VIDEO – Maxime Vaudano : « Décodex débusque les sites douteux »

L’Observatoire des Médias a rencontré Maxime Vaudano lors de l’édition 2017 de la Conférence Nationale des Métiers du Journalisme qui se tenait au Palais de Tokyo les 26 et 27 janvier 2017.

Il nous explique le fonctionnement du moteur de vérification Décodex édité par Les Décodeurs du Monde et des extensions de navigateur à installer.

Voici comment Décodex est présenté sur le site Les Décodeurs :

Fruit de plus d’un an de travail, le Décodex, lancé début février 2017 par Le Monde, est un outil qui vise à lutter contre la diffusion virale de fausses informations et à aider les internautes à se repérer dans la jungle des sites producteurs ou relayeurs d’informations : est-ce un média citant ses sources et vérifiant ses informations, un site fabriquant ou propageant de fausses informations, un site militant ne mentionnant pas son affiliation politique ? Avant de partager une information, différents outils sont à votre disposition pour évaluer la fiabilité du site sur lequel elle est hébergée.

Des outils à installer : 

  • une extension Chrome (à télécharger ici) et Firefox (à télécharger ici) qui vous indique, en temps réel et pendant votre navigation, si le site est plutôt fiable ou s’il diffuse régulièrement de fausses informations ;
  • un moteur de recherche sur le site Decodex pour vérifier la fiabilité d’un site ;
  • un « bot Facebook » : lorsque vous irez parler avec Les Décodeurs dans la fenêtre de chat Facebook ou sur l’application Messenger, notre robot vous aidera à vérifier l’information (cliquez ici pour y accéder) ;
  • des articles pédagogiques, notamment à destination des enseignants, sur la différence entre une information et une source d’information, sur les moyens de vérifier une information, une image ou une vidéo qui circule sur Internet, etc.

En savoir plus sur lemonde.fr/les-decodeurs…

trump Fake-news-observatoire-des-medias

Élection de Trump : quelles responsabilités pour Google et Facebook ?

Les dernières élections américaines, encore plus que les précédentes, se sont déroulées pour les journalistes sous l’emprise des multinationales par lesquelles les informations passent désormais : Facebook et Google, pour ne citer que les plus importantes. Ces infomédiaires – tels qu’ils ont été théorisés par Franck Rebillard et Nikos Smyrnaios – n’ont jamais eu un rôle aussi important dans la diffusion et la circulation des informations journalistiques. Pourtant, ils semblent éviter les responsabilités qui devraient s’accompagner des pouvoirs éditoriaux qu’ils se sont arrogés ces dernières années. Responsabilités qui posent plus de questions que d’habitude dans la mesure où Donald Trump aurait prétendument bénéficié de la circulation de certaines intox, que l’on appelle désormais là-bas, et même ici « fake news ».

Trump à la Maison-Blanche : le rôle des infomédiaires

La monétisation des lieux de passage du numérique a fait naître des géants de l’information. Inutile de refaire leur histoire ici. Ce qu’il faut cependant garder en tête, c’est que les organisations par qui nous accédons à l’information en contexte numérique aujourd’hui – qui font cette “nouvelle” médiation entre nous et la production journalistique –, sont fondées sur le principe de captation de la valeur économique produite par d’autres acteurs ; ici, les journalistes. Géants parmi les géants, Google et Facebook ont une importance de premier ordre sur la réorganisation des informations et par conséquent, sur la manière dont elles nous parviennent. Comme le disait déjà Dominique Cardon dans une interview donnée au Monde en décembre 2015 “On ne réfléchit pas assez à la manière dont Google classe l’information”.

Emprises éditoriales

Comment se passe cette réorganisation ? Si l’on prend la home d’un site d’information, celui-ci classera sans doute les informations suivant des ordres explicites : rubriques thématiques, temps de lecture, les plus partagés / lus, les derniers parus, etc. L’article apparaît ainsi en contexte, lié formellement au reste du site web et ancré dans une ligne éditoriale. En accédant à l’article via un infomédiaire, une partie du contexte se perd. Plutôt, il se voit recréé au sein du site web par lequel on accède à l’article. Ce contexte se trouve totalement uniformisé : la timeline ou la liste dans laquelle il apparaît norment les formes textuelles et si vous pensez à Facebook, seul le logo du journal permet de reconnaître l’énonciateur.

Une quantité de repères, de signes sont sacrifiés sur l’autel de l’uniformité, qui donne pour résultat une grande similarité entre les différents posts, bien que ceux-ci soient de natures et d’énonciateurs différents. Des entreprises privées non-journalistiques (pour le moment) imposent ainsi des règles éditoriales en même temps qu’elles deviennent le nouveau contexte normé au sein desquels circulent les articles. La re-contextualisation s’accompagne alors de règles « éditoriales » : l’écriture de l’article, de son titre, de ses intertitres, sa taille et le moment de publication sont autant de paramètres à prendre en compte pour un bon référencement.

Tout ça pour dire quoi ? Pour expliquer que ces entreprises de la Silicon Valley ont une emprise éditoriale plus forte qu’elles ne le prétendent sur le travail des journalistes. Une part désormais si importante que, lors de l’élection de Donald Trump, bien des regards se sont tournés vers Google et Facebook pour pointer leur mauvaise gestion dans la diffusion de certaines informations. Notamment, la circulation de fake news a été particulièrement importante, sans pour autant que l’un ou l’autre ne canalise leur propagation. Des acteurs malveillants ont ainsi repris les formes et codes des sites de presse et dans la re-contextualisation et le reclassement des infomédiaires, difficile de faire la différence entre un vrai site et un faux.

Mais responsabilités limitées ?

Si les deux entreprises récusent toute responsabilité dans l’élection de Donald Trump (il serait de toute façon bien difficile de quantifier tout cela), Google et Facebook affichent deux manières de gérer la situation. Google continue la politique de l’autruche et se dédouane de toute responsabilité en se considérant comme une “plateforme” (entendez “neutre”) avant tout. Or, le moteur de recherche ne l’est pas, comme le faisait notamment remarquer Carole Cadwalladr le 16 décembre dernier dans The Guardian. Facebook consent, lui, à réfléchir à sa politique vis-à-vis des rédactions, pour peut-être la modifier légèrement.

The-Facebook-Journalism-Project
Le Facebook Journalism Project, un concept aussi flou que la photo qui illustre son annonce ?

À demi-mot, le réseau social reconnaît sans doute une part de responsabilité dans la mauvaise gestion des fausses informations qui ont circulé pendant les mois de la campagne puisqu’il a annoncé en décembre 2016 The Facebook Journalism Project. Derrière la grandiloquence de ce nom se cache une série de révisions de sa politique des news. Facebook attend le dernier paragraphe pour mentionner, sur son blog, qu’il “continuera à poursuivre ses efforts pour freiner la propagation des fausses informations”.

Cela se traduit par l’ajout d’une option pour l’internaute permettant de signaler une intox. Une fois le signalement effectué, des équipes de fact-checkers dites indépendantes vérifieront l’article en question. Ces dernières font partie de l’initiative du Poynter Institute et ont par conséquent signé ses “règles de principe” visant à harmoniser une charte de déontologie du fact-checking. Facebook intègre de cette manière une tierce partie journalistique pour la vérification des informations. La boîte noire que représente l’algorithme se voit attribuée une surveillance explicitement humaine, aveu d’une automatisation qui montre aujourd’hui largement ses limites.

Reste que les infomédiaires semblent éviter les critiques qui retombent sur les journalistes. Leur communication sur leur prétendue neutralité, leur transparence affichée nous fait oublier que ces géants sont avant tout des médiateurs et qu’en tant que tels, ils altèrent tout ce qui passe par leurs canaux et doivent assumer les responsabilités des conséquences de leurs politiques.

triple-check-reliable-sources-cnn-brian-selter

« Triple check before you share » : CNN veut nous éduquer

Faire un triple check avant de partager une info. Rien que ça. Aujourd’hui, pendant la diffusion de l’émission de CNN « Reliable Sources« , le journaliste Brian Stelter a exhorté les téléspectateurs à ne pas partager sur les réseaux sociaux des contenus issus de sites qui diffusent des hoax, ou alors des sites partisans qui ne montrent que des informations positives sur tel ou tel candidat, sans contexte, ni travail journalistique.

Triple check : éviter les hoax et les sites de clickbait

Le journaliste emploie une formule choc : les utilisateurs des réseaux sociaux devraient faire un « triple check » avant de partager une ‘information’ qu’ils voient passer dans leur flux d’actualités.

En cause, le tweet (effacé depuis) du fils de Donald Trump, Eric, qui a diffusé la fausse information comme quoi un militant pro-Hillary aurait été payé 3 500 $ pour manifester lors d’un meeting du candidat républicain :

triple check factchecking
Souci, le nom de domaine .com.co : il s’agit d’un faux site.

En France, nous avons eu l’inénarrable Christine Boutin, qualifiée hier soir dans ONPC par Laurent Ruquier de « Catholique à 2 balles« , tomber les deux pieds joints dans le piège – pourtant très voyant – d’un site parodique. Invitée par BFMTV au sujet du recul du gouvernement sur la Loi Famille, Christine Boutin avait, sans sourciller, cité un « élément de langage » du gouvernement inventé par… le site parodique Le Gorafi.

L’Observatoire des médias vous propose de visionner cette séquence, en anglais dans le texte :