Catégorie : Web

lara-trump-propagande

Real news vs Fake news : La belle-fille de Trump présentatrice en chef de la propagande

« Je parie que vous n’avez pas entendu parler de tout ce qu’a accompli le Président cette semaine à cause de toutes les fake news qui circulent. »

Ces mots sont de Lara Trump, la belle-fille de Donald J. Trump, introduisant une vidéo publiée sur la page Facebook du président des États-Unis.

La vidéo est accompagnée d’un statut on ne peut plus explicite : « Want to know what President Trump did this week? Watch here for REAL news! » 

On est jamais mieux servi que par soi-même. Ou par ses proches. Au moment même où Fox News est accusée d’avoir publié de fausses informations sur demande de Trump,  cette vidéo est la première livraison d’une espèce de journal des « vraies nouvelles », Lara Trump ayant promis ici que leur rythme serait hebdomadaire. 

Non content d’avoir les faveurs régulières d’une Fox News qui loue à longueur d’antenne les péripéties du nouvel occupant de la Maison-Blanche,  Trump fait un pas de plus dans la propagande.

Il parait que l’Elysée veut son propre média. 

Journalistes et chocolat au lait : don’t fuck with your level of english !

Faire du journalisme c’est bien. Reprendre une info croustillante sur un site américain, car l’on pense que cela fait du clic, ou que cela puisse « détendre » son internaute, cela arrive, dans nos rédactions « modernes ». Mais… dans ce cas-là, il faut faire attention à son niveau d’anglais. 

Capture d'écran de l'application FranceInfo qui montre un article sur le chocolat au lait
L’application Franceinfo, le samedi 17 juin à 9h29

On a vu fleurir ce week-end une info, à la base tirée par les cheveux, et ensuite TRÈS mal traduite, puis corrigée, mais pas partout. 

Pour moi, cela avait commencé ce samedi matin, à 9h30, en balayant l’appli Franceinfo. 

Je vois dans « les titres » cette info datée de 22h37 la veille. Le titre est très accrocheur. 16 millions d’Américains. Rien que ça. « Plus de 16 millions d’Américains ignorent de quoi est fait le chocolat au lait. »

Par bonheur, l’article met les liens vers la source : 

un lien est présent sur le site et l’appli de Franceinfo

Le souci, c’est que le ou la journaliste à la base de cette info en France (qui n’est a priori pas le ou la journaliste de Franceinfo) ne parle pas bien l’anglais.

Don’t fuck with your level of English : un problème de culture.

Le titre sur le site du ‘Washington Post’

Quand on suit le lien sur le site du Washington Post, on s’aperçoit tout de suite de la bourde : le WaPo écrit « chocolate milk« , et nous nous retrouvons ici avec « chocolat au lait« . Non. En anglais, j’inverse, je dis  « tomato sauce » ou encore « spring break ». La base.

L'article corrigé chez Franceinfo montrant du lait chocolaté au lieu du chocolat au lait.
L’article corrigé chez Franceinfo

Il s’agit donc en français, si on voulait reprendre cette info, de la traduire en « lait chocolaté » ou « lait au chocolat« . C’est ce qu’a fait le matin même Franceinfo, en corrigeant l’article, presque au moment où j’étais en train de le lire.

Je me rends donc compte que le titre a changé, ainsi que l’image d’illustration. Les premières occurrences de l’erreur changent également.

capture réalisée le dimanche 18 juin à 12h06

Mais pas toutes. On se retrouve encore avec un « chocolat au lait » dans le texte.

Un problème de sens dans le chocolat au lait !

Comment Franceinfo a été alerté? Peut-être dans les commentaires, dont l’un pointait rapidement l’erreur d’interprétation, de traduction. Mais pas que. Il se trouve que l’article du Washington Post a lui-même visiblement été retitré. Quand on analyse l’url on voit ceci : « seven-percent-of-americans-think-chocolate-milk-comes-from-brown-cows-and-thats-not-even-the-scary-part« … qui est devenu « the suprising number ». Et ce n’est que dans le corps du texte que l’extrapolation du sondage pour obtenir les 16 millions apparaît : 

Seven percent of all American adults believe that chocolate milk comes from brown cows, according to a nationally representative online survey commissioned by the Innovation Center of U.S. Dairy.

If you do the math, that works out to 16.4 million misinformed, milk-drinking people. The equivalent of the population of Pennsylvania (and then some!) does not know that chocolate milk is milk, cocoa and sugar.

L’auteur de l’article met bien la source corrigée, d’ailleurs : un sondage en ligne réalisé par le « Innovation Center of U.S. Dairy« , repris ensuite par le site Food and Wine, puis par le WaPo.  Et ce n’est que là qu’on aura la trace des sources du sondage : « The Innovation Center for U.S. Dairy conducted a survey of more than 1,000 adults 18 and over in April of this year. They uncovered some shocking facts about how people think about – and drink – milk. »

1000 adultes de plus de 18 ans. De là à titrer « Plus de 16 millions d’Américains… » je trouve cela malhonnête.

Un problème de suivisme

Brève publiée sur le site de L’Obs à 12h59 le vendredi 16/06

Mais d’où est venue cette reprise, sur les sites français?

Interrogé par l’Observatoire des Médias samedi matin, après la correction de l’article chez eux, FranceInfo nous dit qu’il ne s’agissait pas d’une dépêche AFP, sinon, elle aurait été co-signée AFP

Et nous avons vérifié ce matin, Non, il ne s’agit pas d’une dépêche erronée, ce qui aurait pu expliquer la diffusion de l’info.

Non, il s’agit bien de suivisme.

Cette info était -elle venue du site de L’Obs?  La brève publiée à 12h59 le vendredi à 12h59 n’était toujours pas corrigée ce dimanche à 11h55.

On peut retrouver le sondage mal traduit sur le site de Corse Matin, avec un article posté le vendredi 16 juin 2017 à 15h44, et pas corrigé depuis : 

Le chocolat au lait, toujours sur le site de Corse Matin

Mais aussi chez nos confrères d’Europe 1, où la date de publication est du lendemain, et l’article toujours pas mis à jour.

Un article en déshérence, sur le site Europe1.fr

Entendons-nous bien, il ne s’agit pas là d’une sombre affaire de fakenews. L’erreur est humaine. Il ne s’agit pas d’un esprit malin qui aurait voulu nous induire en erreur. C’est une info « lègère ». Mais c’est un problème de rigueur. Double. Une information, à la base tirée par les cheveux par un site américain, ensuite très mal traduite, mais aussi et surtout, une ribambelle de sites qui reprennent… sans vérifier, sans lire, sans suivre les liens… Comme par exemple Europe 1, qui met un lien (oui, on vous apprend à mettre des liens dans vos articles et il faut continuer) mais qui ne les suit pas, qui ne les lit pas.

Plusieurs sites ont repris l’info, mais la bonne, et ont à la fois préféré titrer sur les 7% que les 16 millions, tout en parlant de lait chocolaté et pas de chocolat au lait, comme BFMTV ou Ouest-France.

Mis à part cette question d’orthographe et de rigueur, on a aussi, bien entendu, ce suivisme, le fait que cette « info » tellement alléchante, soit reprise, et surtout, sans vérification.

 

Mise à jour 19/06 : Un sondage, à prendre avec les pincettes d’un lobby.

Je n’ai pas été pas le seul, ni le premier à m’arracher les cheveux sur cette histoire de sondage, de chocolat, et de lait. Au fil des réactions ce dimanche, on m’a alerté de l’existence des tweets de Mathias GIREL, maître de conférence du département de philosophie à l’ENS – Normale sup’ & directeur du CAPHES.
La question n’est pas en effet seulement la question de l’anglais, bien entendu, mais aussi et surtout sur la fragilité du sondage repris par le blog qu Washington Post.
Mathias GIREL publiait dès vendredi, un tweet, devenu un thread, déroulé ci-dessous:

 

Mise à jour du lundi 19/6 10h50 : 

  • Corse Matin a mis à jour son article, et nous cite (et nous les remercions!). Dernière remarque pour eux, une mise à jour de leur CMS serait bienvenue, histoire que l’heure de mise à jour soit claire pour les internautes. Très bon point pour Corse Matin, ils ajoutent : « Notons ensuite que le chiffre de 16,4 millions est une extrapolation à partir des 7% de réponses obtenues sur un panel de seulement 1 000 adultes américains. »;
  • Europe 1 a mis à jour son article, « modifié à 19h01, le 18 juin 2017 », mais pas de mention de l’erreur, ou de la correction dans le texte. C’est un peu limite vu le temps que l’erreur est restée en ligne. De plus, Europe 1 envoie ses articles à des partenaires, qu’il faudrait peut-être prévenir;
  • L’Obs a aussi modifié son article mais module « en-direct/a-chaud » oblige, on imagine, c’est seulement  « Publié le 18/06/17 à 21:06 » qui apparaît, comme s’il s’agissait d’un nouvel élément. L’image d’illustration avec des tablettes de chocolat n’a elle, pas changé. Mais après tout, il y a du chocolat dedans.
Mea culpa du dimanche 16h33 :quand on donne des leçons aux autres, il faut d’abord bien écrire… j’avais écrit « son niveau d’Anglais », et en français, cela ne prend pas de majuscule…
trump Fake-news-observatoire-des-medias

Élection de Trump : quelles responsabilités pour Google et Facebook ?

Les dernières élections américaines, encore plus que les précédentes, se sont déroulées pour les journalistes sous l’emprise des multinationales par lesquelles les informations passent désormais : Facebook et Google, pour ne citer que les plus importantes. Ces infomédiaires – tels qu’ils ont été théorisés par Franck Rebillard et Nikos Smyrnaios – n’ont jamais eu un rôle aussi important dans la diffusion et la circulation des informations journalistiques. Pourtant, ils semblent éviter les responsabilités qui devraient s’accompagner des pouvoirs éditoriaux qu’ils se sont arrogés ces dernières années. Responsabilités qui posent plus de questions que d’habitude dans la mesure où Donald Trump aurait prétendument bénéficié de la circulation de certaines intox, que l’on appelle désormais là-bas, et même ici « fake news ».

Trump à la Maison-Blanche : le rôle des infomédiaires

La monétisation des lieux de passage du numérique a fait naître des géants de l’information. Inutile de refaire leur histoire ici. Ce qu’il faut cependant garder en tête, c’est que les organisations par qui nous accédons à l’information en contexte numérique aujourd’hui – qui font cette “nouvelle” médiation entre nous et la production journalistique –, sont fondées sur le principe de captation de la valeur économique produite par d’autres acteurs ; ici, les journalistes. Géants parmi les géants, Google et Facebook ont une importance de premier ordre sur la réorganisation des informations et par conséquent, sur la manière dont elles nous parviennent. Comme le disait déjà Dominique Cardon dans une interview donnée au Monde en décembre 2015 “On ne réfléchit pas assez à la manière dont Google classe l’information”.

Emprises éditoriales

Comment se passe cette réorganisation ? Si l’on prend la home d’un site d’information, celui-ci classera sans doute les informations suivant des ordres explicites : rubriques thématiques, temps de lecture, les plus partagés / lus, les derniers parus, etc. L’article apparaît ainsi en contexte, lié formellement au reste du site web et ancré dans une ligne éditoriale. En accédant à l’article via un infomédiaire, une partie du contexte se perd. Plutôt, il se voit recréé au sein du site web par lequel on accède à l’article. Ce contexte se trouve totalement uniformisé : la timeline ou la liste dans laquelle il apparaît norment les formes textuelles et si vous pensez à Facebook, seul le logo du journal permet de reconnaître l’énonciateur.

Une quantité de repères, de signes sont sacrifiés sur l’autel de l’uniformité, qui donne pour résultat une grande similarité entre les différents posts, bien que ceux-ci soient de natures et d’énonciateurs différents. Des entreprises privées non-journalistiques (pour le moment) imposent ainsi des règles éditoriales en même temps qu’elles deviennent le nouveau contexte normé au sein desquels circulent les articles. La re-contextualisation s’accompagne alors de règles « éditoriales » : l’écriture de l’article, de son titre, de ses intertitres, sa taille et le moment de publication sont autant de paramètres à prendre en compte pour un bon référencement.

Tout ça pour dire quoi ? Pour expliquer que ces entreprises de la Silicon Valley ont une emprise éditoriale plus forte qu’elles ne le prétendent sur le travail des journalistes. Une part désormais si importante que, lors de l’élection de Donald Trump, bien des regards se sont tournés vers Google et Facebook pour pointer leur mauvaise gestion dans la diffusion de certaines informations. Notamment, la circulation de fake news a été particulièrement importante, sans pour autant que l’un ou l’autre ne canalise leur propagation. Des acteurs malveillants ont ainsi repris les formes et codes des sites de presse et dans la re-contextualisation et le reclassement des infomédiaires, difficile de faire la différence entre un vrai site et un faux.

Mais responsabilités limitées ?

Si les deux entreprises récusent toute responsabilité dans l’élection de Donald Trump (il serait de toute façon bien difficile de quantifier tout cela), Google et Facebook affichent deux manières de gérer la situation. Google continue la politique de l’autruche et se dédouane de toute responsabilité en se considérant comme une “plateforme” (entendez “neutre”) avant tout. Or, le moteur de recherche ne l’est pas, comme le faisait notamment remarquer Carole Cadwalladr le 16 décembre dernier dans The Guardian. Facebook consent, lui, à réfléchir à sa politique vis-à-vis des rédactions, pour peut-être la modifier légèrement.

The-Facebook-Journalism-Project
Le Facebook Journalism Project, un concept aussi flou que la photo qui illustre son annonce ?

À demi-mot, le réseau social reconnaît sans doute une part de responsabilité dans la mauvaise gestion des fausses informations qui ont circulé pendant les mois de la campagne puisqu’il a annoncé en décembre 2016 The Facebook Journalism Project. Derrière la grandiloquence de ce nom se cache une série de révisions de sa politique des news. Facebook attend le dernier paragraphe pour mentionner, sur son blog, qu’il “continuera à poursuivre ses efforts pour freiner la propagation des fausses informations”.

Cela se traduit par l’ajout d’une option pour l’internaute permettant de signaler une intox. Une fois le signalement effectué, des équipes de fact-checkers dites indépendantes vérifieront l’article en question. Ces dernières font partie de l’initiative du Poynter Institute et ont par conséquent signé ses “règles de principe” visant à harmoniser une charte de déontologie du fact-checking. Facebook intègre de cette manière une tierce partie journalistique pour la vérification des informations. La boîte noire que représente l’algorithme se voit attribuée une surveillance explicitement humaine, aveu d’une automatisation qui montre aujourd’hui largement ses limites.

Reste que les infomédiaires semblent éviter les critiques qui retombent sur les journalistes. Leur communication sur leur prétendue neutralité, leur transparence affichée nous fait oublier que ces géants sont avant tout des médiateurs et qu’en tant que tels, ils altèrent tout ce qui passe par leurs canaux et doivent assumer les responsabilités des conséquences de leurs politiques.

les éclaireurs

Les Éclaireurs, pour le journalisme de paix

L’Observatoire des Médias a demandé à Clément Martinet de présenter un nouveau magazine en ligne dont il est le rédacteur en chef, Les Éclaireurs.

Nous sommes en guerre, paraît-il. Depuis que la terreur frappe à nos portes, la rhétorique guerrière s’est imposée partout où la pensée s’exprime : écrans, colonnes de journaux, hémicycles et amphithéâtres. La violence se fait écho, elle se parle à elle-même, comme la seule réponse audible et compréhensible à notre temps. À croire que la paix est un mythe, une fable édulcorée pour bourgeois-bohèmes.  C’est à la fois stupide et révoltant, le constat d’une défaite intellectuelle. La paix n’est pas une utopie, elle est un but inévitable, comme l’écrivait Victor Hugo. Elle est même un devoir de fidélité. À notre histoire, à notre mémoire, à notre héritage.

Ainsi, à l’aide d’une vingtaine de jeunes journalistes et étudiants de France et du Québec, nous avons fondé Les éclaireurs, un site d’information et d’opinion dans lequel nous promouvons le journalisme de paix. Nous n’inventons rien, cette ligne éditoriale a déjà été abordée par le passé à travers les écrits du politologue Johan Galtung, les photographies du reporter James Nachtwey et les articles d’Annabel McGoldrick. Il s’agit d’analyser les conflits -qu’ils soient sociaux, économiques, politiques et géopolitiques- et de les décrypter pour comprendre ses origines, d’abord, puis contribuer à les résoudre, ensuite. Nos reportages, éditoriaux et décryptages sont écrits sous un angle positif, qui favorise les initiatives non-violentes et les promoteurs de paix. Mais aussi de liberté individuelle, son garde-fou.

Tout cela car nous croyons en l’avenir, et que l’avenir appartient à ceux qui savent en parler. Jeunes, nous écrivons  avec l’envie de s’inscrire dans le temps long, bien que le présent s’apparente à un siècle de déloyauté, où le CDD s’impose comme la norme et où les relations humaines sont de plus en plus brèves. Nous avons fait le choix de mettre notre rancœur de côté pour promouvoir des valeurs nobles et des idées positives, qui renforcent notre jeunesse. Et nous le faisons avec le sourire, car le sourire n’empêche pas la révolte.

Notre vecteur est l’information car sa justesse apaise, et que la justice la suit de près. Informer sans céder aux on-dit, aux mal-dits et aux raccourcis. C’est pour cela que nous avons choisi de nommer notre site Les Eclaireurs ; nous ne voulons pas que la haine noircisse notre lumière.

 

Clément Martinet

Les Eclaireurs est une association 1901 depuis le 9 mai 2016 et fonctionne avec ses fonds propres.

Instant articles

Avec Instant Articles, un article vu sur Facebook est 20% de fois plus lu

C’est l’année dernière qu’a été introduite aux Etats-Unis la technologie Instant Articles de Facebook. En résumé, les articles sont pré-chargés sur les serveurs du réseau social, le média fabrique un flux léger dédié et l’utilisateur voit l’article apparaître jusqu’à 10 fois plus rapidement que s’il avait cliqué sur un lien classique, même si ce lien menait à une page adaptée aux mobiles.

The Verge, le site du groupe Vox qui a récemment lancé sur Facebook Circuit Breaker, a pu avoir une longue discussion avec les gens de Facebook, et révèle des chiffres intéressants.

Casey Newton, l’auteur de The Verge a pu rencontrer Will Cathcart, un responsable produit Facebook chargé du News Feed qu’il qualifie de vétéran dans la société : cela fait six ans qu’il travaille pour Facebook.

Instant Articles est encore plus utilisé dans les pays où la connexion mobile est lente

Facebook avait annoncé à sa conférence F8 que les utilisateurs sont 20% de plus à cliquer sur des articles lorsqu’ils sont visibles sur Facebook en tant que Instant Articles, c’est-à-dire vus avec le petit éclair dans le feed, et ces mêmes contenus seraient partagés 30% de plus avec ses contacts. Un argument massue qui finira de convaincre les réticents à cette technologie?

Plusieurs choses sont à noter sur le lancement d’Instant Articles et sa mise en place :

  • Les éditeurs ont été pour très grande partie hésitants, hésitants à « donner » tous leur contenus à Facebook.
  • Les éditeurs ont aussi hésité sur le partage de revenus que propose Facebook.
  • Facebook a, semaines après semaines, adopté une stratégie vécue par les éditeurs comme souple : la firme américaine a permis à ceux-ci d’ajouter plusieurs publicités par article, puis a autorisé la publicité vidéo, et enfin a autorisé  les articles sponsorisés à être publié via Instant Articles.
  • Très rapidement, Apple a sorti sa propre technologie, Apple News, et Google a embrayé avec Accelerated Mobile Pages, AMP, qui reprend aussi le pictogramme de l’éclair.
  • Instant Articles devient encore plus intéressant lorsque il est utilisé dans des pays où la connexion est mauvaise. À ce moment-là le chiffre passe 20% à 40%. Les articles sont donc encore plus lus via Instant Articles dans ces pays.

Dans l’interview, le chef de produit fait un aveu :  si Facebook essaye de fabriquer un outil pour plus d’un milliard de personnes en les informant sur les infos qu’ils aiment, l’outil ne pourra pas avoir de jugements sur tel ou tel sujet à partager, ou considérer à part tel ou tel éditeur. Car cela ne pourrait pas contenter l’intégralité du milliard d’utilisateur du réseau social. Pour Facebook, le choix est clair : les choix éditoriaux traditionnels ne fonctionnent pas lorsque l’on construit un produit qui doit fonctionner pour un milliard de personnes.

Le journaliste de The Verge est allé plus loin dans les questions et a demandé si, lorsqu’un contenu complètement faux est partagé des milliers de fois, est-ce que Facebook, à un moment donné, en informerait ses utilisateurs. Réponse : non, avec cette réponse, éloquente, que je vous laisserai lire en anglais  :

« There’s been some research published on this that says if you’re connected to a lot of friends across a set of diverse points of view, you actually end up learning more about the different points of view than if you weren’t using Facebook. »

Malheureusement, le chef produit ne répondra pas clairement sur le poids que peuvent avoir certains articles ou d’autres, et le fait que certains soient plus vus que d’autres :

It’s hard to talk about what transparency we would give about specific stories.

Source : The Verge

Ina Premium : la plateforme de VOD à 2,99 euros par mois sans engagement de l’Institut national de l’audiovisuel

Ce sera finalement 2,99 euros par mois, sans engagement de durée : le prix choisi par l’Institut national de l’audiovisuel (INA) pour sa nouvelle plateforme de vidéo à la demande Ina Premium qui est présentée à la presse ce lundi matin tet qui sera lancée ce mercredi 30 septembre.

Au départ, c’était un prix de 5€ qui était annoncé, avant que Laurent VALLET, président de l’institution basée désormais à Bry-sur-Marne, n’avance ce nouveau prix de 2,99 euros par mois sans engagement dans le Figaro:

« Nous allons rendre accessibles des programmes dans leur version intégrale et ce travail d’exploitation permanente et de suivi des œuvres doit s’accompagner d’une juste rémunération des ayants droit. C’est essentiellement cette rémunération-là qui justifie le coût, modique, de l’abonnement. […] L’objectif est de réinventer le rôle et la place des archives à l’heure du numérique et des médias sociaux. »

Après Apple, Twitter encore plus ‘média’ avec « Twitter News »

Depuis hier, certains utilisateurs américains de l’application mobile de Twitter voient apparaître une icône ‘News‘ dans leur barre de navigation nous apprend Alex Kantrowitz, senior technology reporter chez BuzzFeed.

enhanced-7078-1438624551-9

Cette nouvelle fonctionnalité affiche une sélection d’articles ‘Trending News’, en train d’émerger dans l’actualité du moment, reprenant le principe des fameux ‘Trending Topics’.

Après un clic, l’utilisateur accède à une page dédiée à l’article reprenant une image d’illustration, suivi du titre, d’un extrait et d’une sélection de top tweets.

Seule une liste pré-approuvée d’éditeurs serait concernée par ce test également en cours au Japon. On peut remarquer sur la capture d’écran la présence de :

– CBS News;

– The New York Times;

– USA Today et

– ABC News.

Cette nouvelle initiative diffère du projet ‘Lightning’ aka ‘Moments’, prévu pour la fin de l’année et visant à effectuer une curation de tweets relatifs à un événement, comme par exemple la cérémonie des oscars.

La semaine dernière, la faible croissance du nombre d’utilisateurs du réseau inquiétait à nouveau les analystes malgré des résultats financiers meilleurs que prévus : Twitter revendiquait 316 millions d’abonnés fin juin 2015 dont 8 millions de nouveaux abonnés pour le deuxième trimestre. Un chiffre à prendre avec des pincettes puisque si l’on exclut les utilisateurs du service par SMS, le chiffre n’est plus que de 2 millions de nouveaux abonnés.

Twitter news

Ces efforts engagés par Twitter visent notamment à simplifier l’utilisation du réseau social, souvent considéré comme complexe par les nouveaux utilisateurs. Tout en entrant progressivement dans la grande thématique de cette année 2015 : la ré-intermédiation dans la distribution des contenus avec Apple News prévu pour cet automne avec iOS9, Facebook et ses Instant Articles, Snapchat Discover, WhatsApp (utilisé par Le New York Times il y a quelques semaines pour la première fois) ou encore WeChat (récemment utilisé par Time).

Mi-juin, Twitter avait déjà lancé une fonctionnalité de pré-visualisation des articles au sein de sa timeline via une Twitter Card.

 

François AUCHATRAIRE
Chargé d’études au sein du service marketing de l’AFP.
Sur Twitter : @fauchatraire

Bild s’inspire de SnapChat Discover et lance BILD Daily, un JT vertical

Qui a dit que les médias européens n’étaient pas réactifs? BILD, le quotidien allemand, lance un journal vidéo en format vertical, en s’inspirant donc du service Discover présent sur l’application pour smartphone SnapChat.

Cela s’appelle BILD Daily, et ce sera diffusé chaque matin, à 10h, à la fois sur le site du journal, mais aussi et surtout sur les applications mobiles du groupe de presse allemand.

sous-titreLe format est doté d’un générique punchy, un compte à rebours apparait en haut à gauche pour montrer les secondes restantes sur un sujet et chaque JT est sensé durer entre 3 à 7 minutes. Le bandeau oblique en bas de la vidéo est toujours présent et présente des sous-titre. Ainsi, « pas besoin forcément de son » : on peut comprendre ce qui se dit à l’image en regardant les sous-titres.

Il ne s’agit pas d’un « tout images » : chaque JT aura son présentateur. Deux éditeurs présenteront : Laura Schlüter et Moritz Wedel.

Voici un exemple de video :

Pour un nouvel écosystème de la presse : les bonnes feuilles du rapport de Jean-Marie Charon

Mise à jour du 2 juin 2015 :

Le rapport final a été remis à la ministre de la Culture. Le voici :

 

Jean-Marie Charon, sociologue des médias, qui a publié ici-même  « Réinventer les rédactions » a été chargé par la Ministre de la culture et de la communication, Fleur Pellerin, de rédiger un rapport, de dresser un panorama du nouveau paysage de la presse en France. Titre du rapport que l’Observatoire des Médias a pu consulter :

Presse et numérique – L’invention d’un nouvel écosystème.

Ce titre n’est pas sans rappeler le « Manifeste pour un nouvel écosystème de la presse numérique » du spiil datant de 2012, mais le paysage a évolué, et Fleur Pellerin a souhaité se faire conseiller et avoir une vision de ce que sont aujourd’hui les nouveaux métiers de la presse, les acteurs, les contenus, avoir une connaissance des nouvelles organisations du travail.

Jean-Marie Charon conclut son introduction ainsi  :

«Chacun a conscience que la presse (au sens large) que l’on a connu ne reviendra pas et que le processus en cours est bien l’invention d’un nouveau monde, un nouvel écosystème, tel est l’objet de ce rapport qui s’emploie à dessiner les contours de celui-ci tel qu’il se présente aujourd’hui, soit une photographie qui sera très vite obsolète, mais sur laquelle peuvent s’appuyer les acteurs d’aujourd’hui pour décider de leur action dans cette période, à la fois particulière, inconfortable pour beaucoup, mais en même temps tout à fait passionnante.»

Le rapport sera publié dans son intégralité sur le site du Ministère de la Culture, et sa publication  donnera lieu à l’organisation de plusieurs tables rondes. Mais en attendant, j’ai choisi quelques passages de ce rapport.

à propos de la formation, « le numérique pour tous » :

« […] Dans une phase de mutation l’évolution des compétences des journalistes ne saurait se limiter à la question des entrants. Non seulement il faut permettre aux journalistes qui ne disposent que des compétences liées à la presse d’hier de s’exprimer sur les nouveaux supports numériques, mais surtout il faut concevoir des démarches dans lesquelles chacun revient régulièrement en fonction des transformations à l’œuvre dans leur entreprise. La question d’une articulation forte, notamment dans le temps, entre les rythmes et moments des formations et les évolutions en cours dans l’entreprise est cruciale. De la même manière il ne peut plus être question de limiter ces formations au simple maniement d’outils. Nombre d’entreprises de presse reconnaissent ici avoir sous-estimé ou mal appréhendé ces contraintes. L’univers de la formation permanente s’est adapté, parfois plus tôt que les formations initiales, certains de ses cadres faisant figure de pionniers dans la réflexion et l’expérimentation de nouvelles pratiques (Emi-CFD par exemple). Cohabite au sein de celui-ci à la fois des émanations d’établissements de formation initiale, des établissements spécialisés, voire des organismes d’expérimentation et de recherche dans un domaine comme l’image (INA) et internationaux, émanation d’organisations des éditeurs de presse quotidienne (Wan-Ifra). Il faut ici être extrêmement vigilant à l’égard des répercussions d’une réforme du financement de ces formations dont les effets sont encore difficiles à appréhender.»

à propos des expérimentations, des Lab :

« […] Il faut insister ici sur l’importance de poursuivre et amplifier un travail de recherches sur des formes et des contenus qui ne sont pas forcément immédiatement intégrables dans les pratiques des rédactions, voire même dans les contenus les plus courants proposés par le média. A ce niveau se pose des questions d’expérimentation et d’évaluation de celles-ci. Les développements peuvent être longs et couteux, les intuitions longues ou délicates à finaliser. La démarche de l’Amaury Lab est ici intéressante, intégrant l’accompagnement, la formation et l’expérimentation sur les sites du Parisien et de L’Equipe. Un niveau de mutualisation plus large est sans doute souhaitable. C’est dire qu’il y a là une mission dans laquelle les pouvoirs publics peuvent jouer un rôle, par des aides ciblant l’innovation, par des bourses, par l’organisation d’événements (concours, prix, etc.) permettant de montrer, valoriser les réalisations, comme les concepteurs et les équipes qui les ont portées.»

Sur le cycle de production de l’information :

« […] Un tel cycle de 24 heures, qui s’inscrit dans un flux continu, de production de l’information suppose de repenser les grands types d’intervention journalistique, avec notamment d’un côté des journalistes collecteurs, chasseurs ou « pêcheurs » de l’information (pour reprendre l’expression de Bernard Marchant, administrateur délégué du groupe Rossel) et de l’autre des éditeurs (et non plus des SR, secrétaires de rédaction) reprenant, enrichissant, adaptant les contenus fournis par les « pêcheurs » pour les adapter à chacun des supports. Faut-il à ce stade avoir un pôle unique d’éditeurs ? Faut-il distinguer des pôles d’éditeurs numériques et d’éditeurs imprimé (solution adoptée par Le Soir de Bruxelles, par exemple) ? La réponse est peut-être fonctionnelle. Elle est plus certainement culturelle, professionnelle, sociale, en fonction des temps d’évolution et d’apprentissages nécessaires aux individus qui forment les rédactions.

La fusion des rédactions et l’engagement du flux constant de traitement de l’information multi-supports n’implique pas forcément ou pas uniquement une organisation homogène des rédactions incluant l’ensemble des services. Nombre de titres à l’image du Guardian, du Monde ou du Figaro sont amenés à définir de nouvelles polarités – logiquement qualifiées de « pôles » – qui ne correspondent pas à la définition de services traditionnels, par type d’information traitée (politique, « info-géné », société, économie, culture, etc.), mais selon des modes de traitement de l’information. Il peut s’agir d’équipes et studios vidéo (Le Figaro, Le Monde, The Guardian, etc.), de factchecking (Le Monde, Libération, etc.), de participatif (Guardian), de data journalisme, etc., sans parler de la question des desks dont le rôle est d’identifier et mettre en forme quasiment instantanément les nouvelles, parfois 20 heures sur 24, en attendant le 24X24 que caressent certains (notion de « breaking news » chez les anglo-saxons).»

Complémentarités et salaires :

« […] les temporalités des évolutions dépendent largement de la capacité des directions, des encadrements à faire évoluer les compétences, renforcer les niveaux d’engagement des journalistes, lever les réticences, voire les blocages. Là se pose la question cruciale d’une autre forme de complémentarité qui est celle des personnes d’âges, de compétences, d’appétence à l’égard des innovations et notamment du numérique, très différents. Dans de nombreuses entreprises cohabitent ainsi deux populations, dont l’une a un rôle pilote pour les innovations et les réalisations numériques, alors que l’autre élargit plus ou moins rapidement son activité de l’imprimé vers le numérique. A ces différences de caractéristiques concernant les personnes se surajoutent des approches différentes des entreprises en matière de statut et de rémunération. Force est de constater que perdurent, bien souvent, pour les journalistes porteurs de la compétence et de l’activité numérique la plus pointue, des statuts plus précaires et fragiles (stages, piges, CDD) en même temps que des rémunérations plus faibles, parfois proches du Smic.»

Sur les partenariats avec les infomédiaires  :

« […] des partenariats sont possibles entre médias d’information et infomédiaires : Le premier qui n’est pas le plus important et qui concerne principalement les fournisseurs d’accès prend la forme d’achat de flux d’actualité auprès des agences internationales telles que l’AFP ou Reuters pour Orange ou Yahoo. Il peut aussi s’agir de dossiers, d’éditoriaux, d’interviews, de chroniques spécialement développés pour le portail du fournisseur d’accès, comme le Talk produit par Le Figaro, ou des contenus plus ponctuels comme ceux réalisés par Slate, toujours pour Orange. Une seconde forme de contribution peut consister en une rémunération des contenus consultés via une plateforme d’échange (Youtube) ou via un moteur de recherche. Facebook négocie actuellement des accords avec des sites de presse leaders sur leurs marchés (New York Times, Guardian, El Païs, etc.) afin que ceux-ci fournissent directement leur information sur le réseau social, avec en contrepartie un reversement des ressources publicitaires générées sur ces audiences.

Cependant, ces rémunérations sont insuffisantes, pour ne pas dire marginales, pour rémunérer les coûts rédactionnels. S’y surajoute là encore les inégalités de traitement entre quelques titres de référence, choisis par les infomédiaires, qui vont se trouver encore renforcés en tant que leaders sur leurs marchés, et tous les autres qui ne se verront rien proposer. Soit là encore le hiatus entre les logiques de maximisation des audiences et des revenus des infomédiaires et la nécessité d’un pluralisme de points de vues éditoriaux nécessaire au débat d’idée et à la démocratie.»

Sur les fonds et les aides :

« […] Faute de pouvoir s’appuyer sur une tradition ou une compétence en matière d’actions unifiées, y compris à l’échelle européenne, il revient aux pouvoirs publics de favoriser et accompagner de telles démarches, y compris en imaginant des formes de contributions vertueuses qui puissent éviter des batailles frontales entre médias et infomédiaires. L’idée de la création d’un fonds élargi de contribution à l’innovation dans les médias pourrait ici trouver sa place, les contributeurs ne se limitant pas au seul Google. La démarche de volontariat pourrait intervenir comme un volet dans le rapatriement par les états européens, des impôts et taxes auxquels plusieurs de ces infomédiaires, notamment nord-américain ont échappé par des pratiques de plus en plus contestées d’optimisation fiscale.»

Sur le journalisme à deux vitesses :

« […] le manque d’attractivité du journalisme numérique freine le développement de nouvelles organisations : intégrées, cycle de 24 heures servant les différents supports. Les freins dans ces évolutions vers le journalisme numérique pour les journalistes des médias traditionnels contribuent à la perpétuation d’une filière particulière, moins bien traitée de fait. A ce niveau se pose la question d’une proportion encore insuffisante en France de directeurs de rédactions, de rédacteurs en chefs, voire cadres intermédiaires qui soient issus du numérique ou aient exercé dans celui-ci. L’exemple d’un Johann Hufnagel à la tête de la rédaction de Libération reste rare. Il est notable, peut-être par contraste que Kath Viner, qui vient de prendre la rédaction en chef du Guardian, ait au paravent lancé l’édition en ligne du titre en Australie, avant de diriger la rédaction numérique du titre aux Etats Unis.»

Préconisations sur les aides :

« […] l’Etat pourrait favoriser, en réunissant les conditions nécessaires, la création d’incubateurs accueillant les pure players d’information, les labs des entreprises de presse, ainsi que les start up contribuant à la production d’information, à la fois à Paris et en région (écosystème toujours). Au-delà, éventuellement articulé à ces incubateurs, le ministère de la culture et de la communication en partenariat avec le secrétariat d’état à la recherche à l’enseignement supérieur pourrait inciter au développement de pôles associant formation liée à l’innovation, veille et recherche, avec une forte dimension internationale.»

Préconisations sur le cadre juridique des entreprises de presse :

« […] Les évolutions récentes concernant le cadre juridique des entreprises de presse appellent une réflexion et de nouvelles initiatives afin de mieux cerner le cadre particulier de la jeune entreprise de production d’information. Celui-ci serait tout particulièrement à penser avec une articulation possible avec le mouvement qui se dessine dans la société en faveur de l’accompagnement financier de l’innovation ou de réalisations difficilement profitables économiquement. Une réflexion sur les potentialités et les modalités de la notion de crowdfunding serait une contribution importante, qui puisse donner une véritable assise réaliste à des projections telles que celles qu’avance aujourd’hui un auteur comme Julia Cagé.»

La version définitive du rapport de Jean-Marie Charon sera bientôt publique.

La seule inconnue pour le moment : de quelle façon Fleur Pellerin va-telle se saisir des observations et des préconisations de ce rapport? Des actions seront-elles vraiment engagées? À suivre !

 

Photo : Raphaël da Silva 

L’AFP se lance à son tour dans le tri et le reconditionnement de tweets avec #TweetFoot

Ce mardi matin, place de la Bourse, c’était jour de marché. Mais au 7e étage du siège de l’AFP, c’est un autre marché qui tentait de se développer encore un peu plus. Celui des applications BtoBtoC, vendues par l’AFP pour ses clients à travers le monde.

L’AFP présentait donc, avec Twitter, la V1 de son nouveau service AFP TweetFoot, une application de semi-curation de tweets footballistiques.

Cela fait un moment que ce projet a été initié par les équipes de l’AFP. L’annonce du projet avait été faite lors de la dernière conférence nationale des métiers du journalisme à l’Unesco en octobre dernier.

Emmanuel Hoog était présent et avait parlé de Twitter :

Ce mardi à l’AFP,le PDG de l’agence a précisé sa pensée :

« On a souvent dit que Twitter allait tuer les agences ou allait les mettre à mal… Au contraire, les réseaux sociaux nous donnent plus de travail que jamais. L’ensemble des plus de 4 500 rédactions qui reprennent nos infos de façon quotidienne, lorsqu’ils voient quelque chose sur Twitter nous demandent très souvent si ce qu’ils y ont vu est vrai ou pas ».

La certification, Emmanuel Hoog en parlait déjà à la CNMJ :

Il avait annoncé le projet TweetFoot, et par un smiley, Datagif s’était outée, on avait compris que cette agence s’occuperaient du design :

Emmanuel Hoog l’avouait lui-même ce mardi lors de la présentation : « la discussion et la négociation entre nos deux entreprises a été un peu un peu plus longue que prévu, mais ce n’est pas une longueur anormale étant donné la richesse de cette annonce, mondiale. »

De façon très claire, Marlowe Hood, journaliste de l’AFP, cofondateur de e-diplomacy hub et coordinateur du projet AFP TweetApps, s’exprime sur ce sujet dans un billet sur le blog Making-of : « […] sans parler de tous les obstacles liés au fait qu’un mastodonte de l’information âgé de 180 ans comme l’AFP n’est pas une startup… »

J’ai aussi posé cette question à  Justine Ryst, « Media Director » chez Twitter France qui admet que ce temps a été long, mais selon elle « le time to market n’a pas été loupé».

Une collaboration

Pour sortir l’application, l’AFP a donc fait appel à Datagif pour l’UX et le design mais aussi Zenika pour faire l’interface technique entre les bases de données de l’AFP et Twitter. Les équipes ont voyagé entre Paris, Londres et San Francisco pour mener à bien le projet.

L’application présentée ce 31 mars en Français va être déclinée en Anglais et en Espagnol, puis dans un deuxième temps en Allemand et dans d’autres langues.

Depuis longtemps, l’AFP admet que ses concurrents ont chacun une spécialité, tout en étant généralistes. « Reuters est spécialiste sur l’économie, AP est très quali sur les USA, l’AFP a choisi comme spécialité le sport » nous disait déjà Emmanuel Hoog en octobre.

Mais revenons au nouveau bébé de l’AFP, tweet-apps. Oui, tweet-apps, car le sport n’est bien entendu qu’une première étape  : selon nos informations, après le lancement de tweet-foot, l’AFP a l’intention de sortir une application destinée à couvrir la Conférence des Nations unies sur les changements climatiques à Paris (30novembre au 11décembre 2015), plus connue de son petit nom #COP21, et la politique fait partie des choses que l’AFP regarde. Comprendre : il n’est pas impossible que l’AFP lance un tweet-elections pour 2017.

L’agence a donc choisi le premier sport de la planète, le football:

Le produit se revendique comme une « gamme » disponible sous la forme d’un site complet ou d’un widget personnalisable par le client – une marque blanche, donc – et déclinable sur tous ses supports.

Voici à quoi ressemble le site clé en main que l’AFP se propose de vendre à ses clients, en version desktop :

site-tweetfoot

Voici le widget (qu’il est possible de voir ici) :

widget

 

Et voici la version responsive dédiée au téléphones portables que l’on peut retrouver ici :

IMG_2240

 

Il est possible de tester d’autres langues ici.

nombre de comptes

Finalement, de la semi-curation

C’est de la semi-curation : Pour alimenter ces applications, l’AFP a opéré une sélection de comptes quelle a jugé les plus influents parmi un panel de blogueurs, commentateurs, experts, joueurs, fans et entraîneurs, soit une base de 1 000 à 1 500 comptes pour chaque ligue européenne. Une sélection qui, annonce l’AFP, sera « permanence réactualisée ».

pictogrammes

Mais il s’agit donc de semi-curation. Car ce sont des comptes qui sont sélectionnés, et pas des tweets.

Aujourd’hui, les rédactions des grands médias qui ont les sous pour se payer les applications de l’AFP ont toutes mis en place des zones de « live », dans lesquels ils insèrent des tweets, comme ci-dessous France TV info qui insère un tweet entre un commentaire d’un internaute et un élément de live écrit par un journaliste de la rédaction de FTVI :

cope d'écran de Francetvinfo.fr
cope d’écran de Francetvinfo.fr

 

Certains clients de l’AFP  pourraient se servir de TweetFoot comme  d’une un flux de tweet déjà catégorisés, à intégrer ensuite dans leur outil de « live ».

Pendant les matchs, AFP TweetFoot affiche en temps réel les Tweets émis par les comptes  de sa base et les enrichit de métadonnées (profil, affiliation à une équipe).

Le flux de Tweets peut être filtré par match, équipe, sujet… tout en étant associé au flux de résultats de l’AFP (scores, actions, calendriers) : c’est ici que se trouve également la vraie plus-value de l’application de l’AFP, par rapport à d’autres solutions du marché qui font déjà de l’agrégation de tweets.

Pour le moment, AFP TweetFoot couvre cinq championnats : la Ligue 1 française, la Premier League anglaise, la Liga espagnole, la Bundesliga allemande, l’Eredivisie néerlandaise.

D’autres ligues et sports viendront enrichir l’offre, et on imagine que ces choix pourront aussi être dictés par les demandes des clients de l’AFP.

L’application joue également la carte du « replay » et permet de revivre un match avec les tweets associés.

Dans le communiqué de presse, Olivier Lombardie, Directeur Commercial et Marketing de l’AFP affirme :

« Cet outil proposé par l’AFP est incontournable pour suivre un match ou une compétition ».

Pourquoi pas.

Mais une question se pose immédiatement : Même si les comptes sont sélectionnés pour leur pertinence, leur sérieux ou parce que ce sont des joueurs, que se passera-t-il lorsqu’un de ces comptes se mettra à poster 50 tweets d’affilée ?

En cours de rédaction de ce billet, Amina Ben Cheikh,  Responsable Pôle Marketing Développement & Innovation à l’AFP, a pu me répondre :

Nous écoutons les comptes et si les tweets sont trop nombreux, ou impertinents nous supprimerons le compte. Par ailleurs, nous travaillons à une évolution de l’applicatif en ce qui concerne les tweets à caractère injurieux afin d’identifier des mots-clés et d’extraire ses tweets des timelines.

Le client de l’AFP aura-t-il la possibilité, de son propre chef, de faire sortir ce compte de la sélection. En clair, est-ce que la sélection des comptes pourra être une collaboration entre le média et l’AFP, via le back-office fourni au client?

Les perspectives économiques

L’AFP a de l’ambition, pour cette application :

Chiffre d'affaires 2014 AFP« Ce vous allez voir n’est pas une application ‘pour faire joli’, c’est une application qui va se vendre, c’est une application commerciale, nous sommes aussi en partenariat commercial avec Twitter sur cette application » nous a dit mardi Emmanuel Hoog. Le PDG de l’AFP a très certainement envie de faire bouger la répartition du chiffre d’affaires de l’agence : en 2014, c’était toujours 53% du chiffre d’affaires qui provenaient de la vente de produits « texte » (57,5% en 2011).

L’AFP a « déjà » un client pour cette application, Digital Virgo, une société qui fournit des solutions pour les opérateurs de télécommunication. Selon nos informations, l’AFP est en discussion avancée avec France TV Sport (peut-être un moyen pour France TV Sports de faire revivre un match et d’enrichir ce type de page).

Petit saut dans le passé

Sinon, lorsque j’ai vu le produit, et quand j’ai pensé à l’évidente déclinaison « politique », impossible de ne pas se rappeler de ce bon vieux Tweest. Non, il ne s’agit pas d’une boisson à base de bière et de citron, mais bien à une application qui avait été développée par La Netscouade pour LePost.fr (qui appartenait au Monde Interactif).

Et cela ressemblait à cela pour l’onglet politiques :

tweest-politique

Et à ceci pour l’onglet journalistes :

tweest-journalistes

Mais Libération n’était pas en reste, et avait conclu un partenariat avec Europatweets pour sortir LibéTwitt, qui était introduit de cette façon :

COMPRENDRE LIBETWITT ET TWITTER
LibéTwitt, c’est le meilleur de Twitter éditorialisé par la rédaction de Libération et accessible à tous depuis Libération.fr, sans avoir besoin de se créer de compte ni de choisir qui vous suivez.
La chaîne LES REGIONALES vous offre une vue générale de ce qui se dit en temps réel par une sélection de personnages politiques, média ou commentateurs. Vous pouvez aussi affiner par région ou par parti. Enfin, la chaîne VU PAR LES MEDIA vous permet de voir ce qui se dit sur les régionales dans la presse et sur le web.

Et voici à quoi cela ressemblait :

libe_twitts

« accessible à tous […] sans avoir besoin de se créer de compte Twitter » : c’est aussi une des promesses de AFP TweetFoot, comme ce l’était déjà pour le Tweest à l’époque, comme l’atteste cette vidéo :

Une façon donc de démocratiser la discussion, et d’évangéliser l’utilisation du réseau social.

«On aurait pu faire une partie de TweetFoot»

Pendant la conférence de presse de lancement d’AFP TweetFoot, Jérôme Tomasini de Twitter France diffusait la conférence de presse via Periscope, et un commentaire a attiré mon attention :

2008

En effet, Frédéric Sidler avait créé avec Nicolas Dengler et Maximilien Penet  une startup,  MIXIN , et un produit, TVChat, qui n’existent plus aujourd’hui. Mais ses collègues ont créé une nouvelle startup, shore, « a web platform to create contextual and interactive social spaces, leveraging social media content and communities ».

Un joli projet, qui a eu comme clients KPMG, la RTS, et a également réalisé l’onglet Twitter space pour la #MuseumWeek 2015.

Mais ils ont aussi réalisé un site pour suivre les conversations autour d’un match de foot :

Suisse-France en live sur les réseaux sociaux

Mais ce fut une opération en one-shot. « On aurait pu réaliser une partie de TweetFoot », m’a confié déclaré Nicolas Dengler, le CEO de Shore.li.

Car ils ne possèdent pas les statistiques de l’AFP.

De son côté, ce 31 mars, Twitter, tout seul, a décidé de couper l’herbe sous le pied des applications tierces de curation du marché qui se servent de ses propres données pour prospérer en lancent Curator :

Et après?

Je vois beaucoup de possibilités, en observant ce qu’a fait l’AFP, avec TweetFoot : l’AFP publie des textes, des photos, des statistiques, des infographies, des vidéos, et désormais, filtre, catégorise et sélectionne des comptes Twitter.

Et si l’AFP mettait tout cela en musique? Et si l’AFP proposait à ses clients un back-office permettant de mêler tous ces contenus,  dépêches, photos, stats, infographies, vidéos, tweets et posts publics Facebook, le tout dans une interface destinée aux publishers, et où ces publishers pourraient insérer leurs propres articles?

Ça aurait de la gueule.

 

Photo de couverture : à partir d’une photo de thiemon via Flickr.