le meilleur de novövision le salon

La stratégie des fous à lier : les enjeux du journalisme de liens

Cette affaire de “journalisme de liens” semble en troubler certains qui se demandent pourquoi nous sommes quelques “fous à lier” (copyright de cette expression : Jean Véronis)] à nous exciter à ce point là-dessus. C’est que l’affaire est loin d’être aussi simple que de seulement remettre au goût du jour le genre traditionnel de la revue de presse, dans un format adapté au web…

Dans “cette économie du lien”, selon l’expression chère à Jeff Jarvis, se nouent en effet quelques uns des enjeux majeurs du nouveau régime de l’information sur internet. C’est d’abord un enjeu d’audience déterminant pour les sites web. C’est ensuite un enjeu professionnel crucial pour les journalistes qui cherchent à retrouver en ligne un rôle, aujourd’hui perdu, de recommandation et de hiérarchisation de l’information. C’est surtout l’enjeu fondamental de la remise en cause du monopole acquis par Google dans la distribution de l’information en ligne : le pouvoir de lier donne le contrôle de l’information et c’est une clé de l’audience sur internet et de sa monétisation.

J’ai mis longtemps pour réussir à “sortir” ce billet qui me travaille depuis des semaines. C’est que cette réflexion fait appel à des notions qui sont parfois “contre-intuitives” et passablement difficiles à expliquer clairement, surtout quand on n’est pas soi-même un spécialiste de la question, pas plus qu’un expert en pédagogie. Je vais donc tenter de rester simple et accessible en essayant d’expliquer comment le journalisme de liens est en mesure (c’est son projet en tout cas) de bouleverser le classement des résultats fournis par Google, en inondant le “marché” de l’“économie du lien” avec des liens à très forte valeur (c’est à dire à fort Page Rank), qui ne sont pas mis en circulation aujourd’hui. Il ne s’agit, rien de moins, que de provoquer une vaste [“Google Dance”

Le développement massif de « journalisme de liens » dans les très gros sites de médias, c’est… une bombe atomique. Mais les blogueurs sont les premiers d’entre les “fous à lier”. Ils n’ont peut-être pas dit leur dernier mot… B-)

Laissez-les partir, ils reviendront plus nombreux

Le premier enjeu est celui de l’audience. Je l’ai déjà abordé sur novövision : “Le journalisme de liens : une vraie stratégie d’audience”. Donc je n’y reviens pas en détail. Je rappelle juste que cette réflexion de Scott Karp (Publishing 2.0) s’appuye sur l’anayse du remarquable succès d’audience du site politique conservateur américain Drudge Report, qui n’est pourtant rien d’autre qu’une page de liens renvoyant vers d’autres sites du web, sans apporter aucun contenu qui lui soit propre, sans même apporter le moindre commentaire sur ces liens, qui sont présentés uniquement avec un titre cliquable. Et pourtant ça marche du tonnerre !

J’insiste juste sur ce point que souligne Scott Karp, sur journalism.co.uk : “c’est un aspect contre-intuitif du web”, mais renvoyer ses lecteurs vers l’extérieur, plutôt que de les tenir captifs sur son site, est le meilleur moyen de les faire revenir. Il s’agit de transformer des sites web qui ne sont que des lieux de destination, c’est à dire des “culs-de-sac du web”, en points de passage, bien placés sur le circuit de distribution de l’information en ligne.

Il s’agit, et toujours selon Scott Karp, de se placer au bon bout de la chaîne de valeur du web, ce que des sites comme Google et Digg sont parvenus à faire, devenant des passages obligés du web, et ce à quoi ont échoué les sites des grands médias d’information. C’est un enjeu clairement économique : augmenter l’audience, c’est accroître le revenu publicitaire.

Deux canaux de distribution : recherche et recommandation

On vient d’en voir un premier aspect avec cette stratégie d’audience, mais ça va en réalité beaucoup plus loin que ça… Le “journalisme de liens” est au coeur de la question fondamentale du nouveau régime de l’information en ligne : le contrôle de sa distribution.

La distribution de l’information auprès du public, dont les médias traditionnels avaient autrefois le monopole, emprunte en ligne deux canaux principaux : un canal ou l’internaute est demandeur, c’est la recherche, et l’autre où il est receveur, c’est la recommandation. Le premier est dominé par les algorithmes des moteurs de recherche, le second par les blogueurs et les internautes. Les journalistes sont absents sur les deux terrains.

Le “journalisme de liens” permet de reprendre pied sur le terrain de la recommandation, mais aussi, et c’est plus subtile, dans celui de la recherche…

Publish2, une arme fatale ?

Le “journalisme de liens” est un enjeu professionnel pour les journalistes. Scott Karp, toujours lui, le manifeste clairement à travers son projet Publish2 (auquel participe également Jeff Jarvis). J’en ai longuement parlé sur novövision également : “Publish2, l’arme fatale du journalisme de liens” (et précédemment “Des journalistes en réseau, pour contrer Digg et Google”).

Emmanuel Parody (ecosphère et Mediachroniques), se montre sceptique sur ce projet, en commentaire sur novövision :

(noir)J’aime beaucoup Publishing 2.0 que je suis aussi depuis longtemps mais je dois dire que ce projet me paraît largement survendu. Tout ça ressemble à une usine à gaz qui accoucherait d’un Delicious privatif. Je crois qu’on a besoin de valider des sources plutôt que des articles. Quant à l’idée qu’une profession qui a déjà du mal à citer ses sources se mettrait tout d’un coup à les commenter, les enrichir de tags et les partager, je ne peux m’empêcher de sourire.

(noir)Ca ne veut pas dire que ce n’est pas pertinent en soi mais qu’on est en train de réintroduire des coûts inutiles dans une partie de la chaîne de fabrication qui n’en mérite pas. Au mieux cela peut se concevoir au sein d’un service partagé de documentation interne.

(noir)Quant à tirer des revenus du module à afficher sur le web, là je suis stupéfait, Scott Karp était bien plus pertinent quand il démontait le modèle économique des sites croupions à la web 2.0.

(/noir)

Sans présager du succès de Publish2 dans sa double – et en effet considérable – ambition (devenir la plate-forme professionnelle de partage de liens de l’ensemble des journalistes américains ; intégrer cette plate-forme au coeur de la chaîne éditoriale des rédactions des grands médias), la réflexion de Scott Karp sur le rôle perdu des journalistes dans la sélection et la hiérarchisation de l’information en ligne reste valable.

Des journalistes redevenus recommandables

“Le journalisme de liens” est bien un projet qui vise à ce que les journalistes se réapproprient un rôle de recommandation de l’information, qui n’est aujourd’hui assuré en ligne que par les blogueurs, qui diffusent des liens dans leurs blogs, les internautes, quand ils votent pour des articles dans des sites d’agrégation automatisée tels que Digg ou quand ils s’échangent des liens sur Twitter ou dans les réseaux sociaux, ou encore par les algorithmes des moteurs de recherche. Mais pas par les journalistes, qui ne placent pas (ou si peu) de liens dans leurs articles et sur leurs sites…

Les journalistes auront mis du temps à le comprendre, mais ça commence à venir : le rôle de sélection et de hiérarchisation de l’information est en ligne au moins aussi important, si ce n’est plus, que d’apporter un contenu nouveau qui existe déjà à profusion.

Les journalistes ont cru un temps, à l’image des “Unes” des journaux d’antan, que les pages d’accueil hiérarchisées des sites d’info rempliraient ce rôle. Sauf que cette sélection ne porte que sur le seul contenu de leur propre site, quand Google, Digg et la blogosphère ouvrent à leurs lecteurs l’ensemble du web, avec un avantage quantitatif et qualitatif déterminant.

Cette petite révolution culturelle des journalistes est enfin engagée : les journalistes se mettent enfin à placer des liens externes dans leurs propres articles, vers les sites concurrents, mais aussi vers toutes les autres ressources du web, et notamment les blogs. Ils proposent aussi, depuis peu, des revues de web sur les pages d’accueil de leurs sites, et des pages de liens sur un thème ou sur un sujet particulier.

Après les grands sites américains, les sites d’information français s’y mettent à leur tour (et le figaro.fr aussi depuis peu). Et le projet original Vendredi développe la même démarche sur le papier, en même temps qu’il met en ligne netreader, son propre site de recommandation de liens, sélectionnés par sa rédaction.

Des journalistes au défi : pertinence, vérification et déontologie

Reste à voir si les internautes seront convaincus et s’ils accorderont autant d’attention aux liens recommandés par des journalistes professionnels qu’à ceux des blogueurs qu’ils connaissent et des membres de leur réseau social. L’enjeu relève ici du pari : les journalistes vont pouvoir vérifier par la pratique le niveau de crédibilité que leur consentent les internautes. C’est une vraie mise à l’épreuve de la question de confiance !

Le défi est double pour les journalistes. Démontrer d’abord, alors qu’ils sont tard venus à cet exercice, qu’ils sauront être aussi pertinents à dénicher sur le web le contenu le plus intéressant, pertinent et original, en concurrence avec des blogueurs et des internautes rompus à cette pratique de la veille en ligne et maîtrisant parfaitement les outils qui la facilitent. Démontrer ensuite la valeur ajoutée spécifique que peut apporter le journalisme dans cette veille, à travers la vérification de l’information et la garantie apportée par le respect d’une déontologie. Ce chantier ne fait que s’ouvrir… et les blogueurs ont une longueur d’avance !

“Web sauvage” et “web filtré”

L’une des conséquences de cette approche, si elle se révèle un succès, c’est à dire si les lecteurs accordent une prime significative aux liens recommandés par des journalistes par rapport aux autres (ce qui reste à démontrer), c’est de déboucher sur la création d’un web à deux vitesses : un “web sauvage” d’un côté, et de l’autre un “web domestiqué”, filtré selon des normes professionnelles.

Une telle offre pourrait se révéler profiter d’un avantage décisif pour ceux qui sont à la recherche de sécurité et de fiabilité dans leur information, je pense notamment au monde éducatif et à de nombreux secteurs professionnels pour lesquels la fiabilité de l’information est importante.

Google, porte d’entrée des sites de médias

Sur l’autre “versant” de la distribution de l’information, celui de la recherche et des algorithmes, le “journalisme de liens” est aussi en mesure de jouer un rôle déterminant, qui pourrait, toujours selon Scott Karp renverser le rapport des forces avec Google.

Google s’est installé aujourd’hui au coeur du système de distribution de l’information en ligne, et sur le versant de la recherche il est aujourd’hui dominant. C’est manifeste pour les sites de presse qui voient 50%, 60% et pour certains même 80% de leur trafic apporté par le moteur de recherche. Et celui-ci prélève au passage une partie de la manne publicitaire, au détriment des sites de presse qui ont bien des difficultés à trouver dans ces conditions un équilibre économique. Google est même le seul à avoir trouvé un véritable modèle économique rentable, après lequel tous les sites de médias courent encore.

Une affaire entre Google et les blogueurs

Au coeur de la “mécanique” de Google se trouve une technologie au nom un peu ésotérique, le Page Rank. C’est par une utilisation habile des propriétés de ce Page Rank que Scott Karp explique comment le “journalisme de liens” pourrait permettre aux sites des médias de “regagner des parts de marché” dans la distribution de l’information.

Quelques notions d’“économie des liens” et quelques explications sur le fonctionnement de Google seront peut-être utiles aux non-spécialistes (dont je suis moi-aussi) pour comprendre.

Google est au carrefour de la distribution de l’information par les pages de résultats qu’ils fournit aux requêtes des internautes, quand ils effectuent une recherche. Il fournit donc des liens. Ces liens, ce sont ses robots qui sillonnent la toiles qui les ont découverts, et Google les enregistre sur ses serveurs pour les restituer à la demande. Google a donc besoin d’être nourri lui-même de liens pour fonctionner. Il ne les crée pas lui-même. D’autres le font pour lui. Qui ? Mais les blogueurs pardi, puisque les journalistes ne le font pas !

Le processus de distribution de l’information en ligne est ainsi dominé par le couple Google+blogosphère : les blogueurs “épluchent” le web et sélectionnent des contenus qui retiennent leur attention, vers lesquels ils placent des liens dans les pages de leurs blogs. Les robots de Google “épluchent” les pages du web à la recherche de ces liens. Ils les suivent jusqu’aux pages de contenus. Puis Google analyse le contenu de ces pages, en y cherchant les termes les plus significatifs qui peuvent “décrire” ce contenu. Il indexe ces pages en fonction de ces termes, qu’il enregistre comme des mots-clés, et il renverra vers ces pages si l’on interroge son moteur sur ces mots-clés.

Google ne renvoie pas n’importe comment les liens dans ses pages de résultats : il les classe. Ce classement est effectué par Google en fonction de la “qualité” qu’il attribue au lien qui mène à telle page, et cette qualité dépend pour lui de l’“autorité” de la page dans laquelle il a trouvé ce lien. Chaque page dans laquelle les robots de Google découvrent des liens se voit attribuer par Google un indice d’autorité, qu’il a décidé de nommer Page Rank et qui se présente sous la forme d’une note de 0 à 10. Ainsi, entre plusieurs pages qui semblent aussi “pertinentes” pour la requêtes effectuée, en raisons des mots-clés que Google a trouvé à l’intérieur, celle qui a le Page Rank le plus élevé apparaîtra en tête sur la page de résultats, et aura plus de chances d’être consultée. (Comme le signale même Fred Cavazza sur son blog, “l’attention est maintenant fortement concentrée sur les trois premiers résultats”, en tête de la première page de résultats. Les autres sont ignorés.)

Cet indice d’autorité est calculé en fonction de liens qui conduisent à cette page, selon le principe qui veut qui si une page est largement citée sur le web, c’est que son contenu est reconnu comme intéressant par de nombreuses personnes. On suppose donc que les liens contenus dans cette même page ont des raisons d’être intéressants eux-aussi. C’est le postulat de Google… (On peut discuter de la validité “scientifique” de ce postulat, en soulignant que ce système ne mesure en réalité jamais la pertinence des contenus eux-mêmes par rapport à la recherche effectuée, mais il se cantonne à enregistrer des indices de popularité de ces contenus. Il n’en reste pas moins que Google, tels qu’il fonctionne, joue un rôle central aujourd’hui dans l’accès à l’information…)

Celui qui agit, c’est celui qui lie

Deux points sont donc particulièrement importants à retenir dans cette “économie des liens” :

• Celui qui compte dans le système, c’est celui qui place les liens, car c’est lui qui permet à Google de calculer le Page Rank, qui sera ensuite déterminant dans l’accès aux contenus. Sans liens, pas de Page Rank. (Au passage, le chercheur Jean Véronis, sur son blog Technologies du langage, souligne qu’il ya sur le web une véritable “pénurie de liens” et que Google est affamé. De plus cette pénurie est inégalement répartie selon les langues, et probablement selon les thématiques :

(noir)J’ai calculé la proportion de liens présents en septembre 2008 sur les blogs des différents pays dans la base Wikio. Le résultat est clair : les Etats-Unis sont largement en tête, avec 0,17 lien par billet, soit un lien pour 6 billets. Viennent ensuite l’Allemagne, le Royaume Uni, puis la France avec deux fois moins de liens qu’aux Etats-Unis (0,08 lien par billet, soit un lien pour 12 billets). Viennent ensuite, bons derniers, l’Espagne et l’Italie…

(/noir)

Il y a ainsi sur le web beaucoup de “pages orphelines”. Aucun lien ne mène à elles, elles contiennent pas de liens : pour Google, elles n’existent même pas, puisqu’il est incapable de les trouver. )

• D’autre part, ce Page Rank se “transmet” de la page contenant les liens à la page vers laquelle conduit ce lien. Une page qui est très liée aura un fort indice d’autorité (fort Page Rank). La page qu’elle lie va hériter d’une partie de cette autorité, qu’elle va à son tour redistribuer à d’autres pages, à travers les liens qu’elle contient.

Dans ce système, Google ne “décide” de rien, il se borne à calculer des Page Rank, en suivant les liens et en analysant les pages de départ et d’arrivée. Il fournit ensuite des résultats de recherche classés selon le Page Rank qu’il a calculé. Celui qui “agit” dans ce système, c’est donc bien celui qui “nourrit” Google en lui donnant des liens à mâcher, digérer, et recracher…

Sur un net, c’est le Page Rank qui fait l’audience, mais ce sont les liens qui font le Page Rank, et ce sont les blogueurs qui font les liens…

Un système en déséquilibre

L’“économie des liens”, dans le domaine de la recherche d’information d’actualité, fonctionne ainsi de manière déséquilibrée : les contenus sont produits par des journalistes qui ne créent pas de liens, les liens sont créés par des blogueurs qui s’intéressent à l’actualité, mais ne produisent eux-mêmes que peu de contenu original. Google, de son côté, repère les contenus des journalistes, en suivant les liens placés par les blogueurs, et il agite le tout dans son shaker à Page Rank.

Dans ce système, le vrai “prescripteur de lecture” n’est pas Google, qui se borne à canaliser les lecteurs par ses résultats de recherche. Ce sont les blogueurs qui, en plaçant collectivement des liens vers ce contenu, déterminent son classement dans la page de résultats de recherche proposée par Google. Ils “décident” donc de sa visibilité effective, et déterminent au final le niveau de son audience.

Les médias thésaurisent et gaspillent leur Page Rank

Le paradoxe de cette affaire, c’est que les sites de presse sont très lus, et donc liés, par les blogueurs. Ils bénéficient ainsi de très fort Page Rank (PR), ce qui correspond à la qualité reconnue de leurs contenus par rapport aux autres, par exemple à celui des blogs (Le Washington Post à un PR de 8/10, The New York Times de 9/10, et Le Monde de 8/10, alors que celui de novövision n’est que de 4/10.)].

Mais ce Page Rank est “perdu”. Il n’est pas redistribué, puisque les journalistes ne placent pas de liens dans ces pages très liées.

En poursuivant l’analogie avec l’économie monétaire, les sites de médias pratiquent la “thésaurisation” de leurs Page Rank élevés. Ils les stockent sur leurs pages sans rien en faire, sans exploiter la richesse qu’ils représentent dans l’“économie des liens”. Tout les liens placés dans une page à fort Page Rank sont en effet en mesure de redistribuer une partie de ce Page Rank vers les pages qu’ils relient. Ce sont des liens de grande valeur. Celui qui possède la possibilité de placer ces liens dispose, par ce seul fait, d’un grand pouvoir de recommandation sur le web : les pages qu’il lie seront toujours mieux placées que les autres dans les résultats de Google et recevront donc plus d’audience que les autres. Un véritable trésor inexploité !

C’est ce “gaspillage” de Page rank que le “journalisme de liens” propose de faire cesser, et les conséquences de cette remise sur le marché de ces liens à fort Page Rank inexploité sont potientiellement considérables…

Entrer dans la “Google Dance de Saint-Guy”

[Scott Karp, sur Publishing 2.0 (“Mainstream News Organizations Entering the Web’s Link Economy Will Shift the Balance of Power and Wealth”) explique son plan :

(noir)Si les médias comme le New York Times, le Washington Post et les sites de centaines de journaux se mettent à lier très largement vers les informations et les autres contenus sur le web, sur leur page d’accueil (comme le NYT envisage de le faire) et à travers leur site, cela aura un impact très important sur l’économie du lien. Ces médias ont été lents à réaliser comment les liens pilotent la distribution des contenus, et l’allocation de l’attention et de la ressource publicitaire. (…)

(noir)Imaginez que le NYT, Washington Post, CNN, MSNBC, et tous ces autres grands sites, qui dominent toujours l’information sur le web, entrent tous dans le jeu du liens. (…) Et imaginez l’impact sur Google.

(/noir)

Est-ce vraiment sérieux ? J’ai interrogé Jean Véronis, sur Technologies du langage, à ce sujet :

J’ai en tête une remarque de Scott Karp à propos des sites de presse américains (avec de très forts PR), mais qui sont très peu liants (même si ça s’arrange avec le développement du linkjournalism). Il se demande quel serait l’impact dans “l’économie des liens” et donc dans les résultats de recherche de Google, si ces gros sites se mettaient à lier massivement, en redistribuant sur le web des liens à très fort PR aujourd’hui “thésaurisés”. Il estime que le bouleversement dans le classement des résultats de recherche de Google serait considérable. Partagez-vous son avis ?

Jean Véronis me répond en commentaire, sous le billet “Trop de liens tue le lien” :

(noir)(…) Scott Karp — Oui, il a levé un lièvre. Ceci étant reste à savoir comment faire sans tout péter (imaginons Google un beau matin qui se prend une Google Dance de Saint-Guy où plus personne ne retrouve ses repères…). A travers les modifs que je fais faire sur Wikio je vais dans ce sens : plus de rotation, de mouvement, de redistribution. Mais j’y vais mollo : je ne veux pas jouer l’apprenti sorcier. Il faut continuer à discuter, à réfléchir. Les pistes nous apparaîtront au fur et à mesure.

(/noir)

Le développement massif de “journalisme de liens” dans les très gros sites de médias est donc bien une bombe atomique. Son usage est en mesure de transformer en profondeur le régime actuel de la distribution de l’information en ligne. Non, le “journalisme de liens” ce n’est pas qu’une petite affaire de revues de presse en ligne…

Un bonbon double effet

Pouvoir de recommandation directe par les liens placés dans les articles et les sélections de liens dans des sites à forte audience, qui est – en lui-même – générateur d’audience, pouvoir de recommandation indirecte par le fort Page Rank transmis aux pages que l’on lie, qui leur assure un bon référencement et donc une bonne audience : le “journalisme de liens” tient deux des clés de l’audience… donc du revenu publicitaire.

Pour Scott Karp, sur journalism.co.uk :

(noir)Les organes de presse traditionnels pourraient avoir un impact énorme en entrant dans ce que Jeff Jarvis appelle l’“économie des liens” car ils disposent toujours d’une énorme crédibilité et d’un énorme accès à l’audience.

(/noir)

Maintenant qu’ils commencent à comprendre comme l’utiliser : en route pour la prochaine “Google Dance” !

Epilogue

Et les blogueurs ? Ont-ils dit leur dernier mot ?

Ils sont toujours les plus forts pour trouver les liens, car ils maîtrisent mieux et depuis longtemps la pratique de la veille en ligne et ses outils.

Ils jouissent d’un fort crédit auprès des lecteurs et donc d’un très fort pouvoir de recommandation, car ils savent nouer avec leur audience une relation de connivence fondée sur l’interaction et un rapport d’égalité (ce que les journalistes des médias ne parviennent toujours pas à établir).

Les blogueurs sont donc toujours en mesure de distribuer des liens à forte valeur ajoutée. Mais il leur manque la force de frappe, car ils n’agrègent pas leurs forces qui restent dispersées.

Et s’ils se mettaient à le faire ? S’ils se fédéraient pour agréger leurs propres flux de liens recommandés ? Justement, à l’ère du post-média, ils y travaillent… B-)

21 Comments

  1. Y a de l’idée, mais effectivement, transparaît de tout ça que tu n’es pas un spécialiste du référencement. Le Page Rank semble être quelque chose qui a beaucoup moins d’impact que par le passé. Et Google fait évoluer constamment ses modes de calcul pour s’adapter aux usages.

    On peut sans doute lui faire confiance pour, dans le futur comme ce fut le cas dans le passé, s’adapter encore et encore aux usages (parce qu’il y avait peu de blogs au début de google 😉

    Reste qu’il est difficile de croire pouvoir faire du journalisme en ligne sans s’intéresser au référencement. Choses que l’on dit depuis quelques années dans les formations à l’écriture en ligne, notamment.

  2. @ Sebastien

    Note tout de même qu’il ne s’agit absolument pas d’un détournement de la logique de fonctionnement du Page Rank. Bien au contraire :

    Si les sites comme Washington Post et New York Times bénéficient d’un très fort Page rank, c’est tout à fait logique et conforme à la démarche de Google. Ils sont très liés et leur contenu est très pertinent.

    Ce qui est anormal, dans la logique de Google, c’est que ce Page Rank-là ait été “gelé” durant si longtemps, et que l’économie des liens se soit “stabilisée” sur cette aberration.

    Google ne pourrait que se féliciter qu’il soit remis en circulation, et n’a aucune raison de s’y opposer, puisque ça conduit à améliorer la qualité du référencement de ses liens.

    Ce n’est pas du tout la naissance d’une anomalie que Google aurait à corriger, c’est la correction d’une anomalie.

    J’ai peur que ce soit toi qui sous-estimes peut-être un peu l’ampleur du phénomène, qui est totalement nouveau : le déblocage de ce “problème” des liens externes dans les sites des grands médias est tout récent. Il date de quelques mois à peine. On commence seulement à en imaginer les conséquences…

  3. J’ai du mal à voir ce que peut faire publish2 par rapport à Google Reader. Je partage exactement ce que je veux avec exactement les personnes que je veux, je fais une revue de web publique aussi, je peux mettre des commentaires… peut-être manque-t-il la dimension de la discussion, je ne sais pas.

    En tous cas avec Google Reader j’ai même des propositions très fines pour m’abonner à des flux pas forcément très populaires mais qui correspondent à mon profil: ce que ne pourra pas trop faire le journaliste. Je ne dis pas que un tel est meilleur que l’autre, qu’il faut choisir. D’ailleurs je trouve cette volonté de contrecarrer Google un peu vaine. Le web filtré existera un jour mais ce ne sera pas fait par les journalistes, tant mieux d’ailleurs parce qu’ils servent à autre chose.

  4. @ ropib

    Publish2 est un réseau fermé. Uniquement ouvert à des journalistes professionnels qui s’engagent à respecter une charte éditoriale dans leur sélection de lien.

    C’est aussi un outil professionnel conçu pour s’intégrer directement dans la chaîne éditoriale de production des grands médias (qui utilisent leurs propres CMS spécialisés de presse) et sont organisés selon des procédures très contraignantes.

    Elle est là, LA différence avec Google Reader. 😉

  5. Allez hop, un bon gros commentaire/pavé trop long, comme d’habitude. Désolé 😉 …

    Je ne suis pas un grand spécialiste non plus mais il me semble qu’il y a une faiblesse dans l’argumentation sur l’économie des liens. Les liens vont vers le contenu, ok. Mais du coup, un site qui ne fait que du lien, n’obtiendra jamais de liens lui même (inutile de lier Drudge Report, autant lier directement le contenu vers lequel il pointe — sauf si c’est pour parler du site lui même, comme tu le fais dans ce billet). Logiquement, un site qui ne ferait que du lien, devrait avoir au final un « faible » PR et donc un rôle relativement faible dans l’économie des liens. Après, pour ce qui est des journaux qui produisent du contenu ET qui font du lien, ça se tient, pas de problème.

    Cela dit, concernant les sites de presse justement, il ne faudrait pas non plus faire du lien uniquement pour faire du lien. Si un reporter part une semaine sur le terrain ou utilise son réseau pour sortir ou éclairer une affaire de façon inédite, il n’aura pas forcément besoin de barder son article de liens puisqu’il aura justement bossé pour parler de quelque chose de neuf. De plus, force est de constater qu’il y a des sujets qui sont plus souvent traités que d’autres sur les sites alternatifs de type blogs, Rue 89 ou autres. Par exemple, plus facile de trouver des articles de blogs intéressants à lier sur la politique, la société ou les faits divers spectaculaires que sur des sujets d’actualité liés à la santé, au sport, à l’art, etc. D’ailleurs, même sur les blogs, l’usage des liens est très variable selon les thématiques (probablement beaucoup plus sur la politique et le « hi-tech » que pour les autres thématiques). Pas si facile à mon avis de trouver de bons liens sur tous les sujets. Mais bon, ça je pense que tu t’en doutes 😉

    Dans cette économie des liens, n’y a t-il pas aussi le risque de voir apparaitre des systèmes de liens « sponsorisés », genre les sites de même groupe qui vont se lier à gogo et/ou des propriétaires de groupes médias qui vont se mettre à faire leur marché de façon à posséder celui qui fait le contenu et celui qui le lie. Processus déjà en marche marche mais plus pour la diversité des supports que pour l’enjeu des liens. Quoi je suis parano ? 😉

    Dernier point : le succès d’un Drudge Report ne tient il pas surtout au fait d’un certain « monopole » ? (tout comme un Google, sauf qu’un Google, c’est beaucoup plus difficile à concurrencer). Si demain il y a 50 autres « Drudge Report » qui se créent, qu’en sera t-il de la répartition des lecteurs et de la viabilité de ces sites ?

    Mes remarques/questions se mélangent un peu entre le cas Drudge Report et le cas des sites de presse mais bon, j’espère que ça reste compréhensible !

  6. @Ouinon

    • Scott Karp incite avant tout les sites de médias à présenter des sélections de liens renouvelés en permanence (en “flux tendu”) sur leur home page : un mini drudge report sur la home page (tiens, c’est un peu ce que j’expérimente ici 🙂 )

    • sur le reportage : la règle d’or en la matière est posée par Jeff Jarvis : “couvre ce que tu fais le mieux, met des liens pour le reste”.

    Le reportage à lui tout seul ne suffit plus : il faut un blog avec (pour raconter le making of et répondre aux lecteurs), il faut un Twitter pour le suivi du reportage en direct, il faut une page de liens pour toutes les ressources complémentaires. etc.

    Ça doit devenir un processus, employant des moyens divers et éclatés, parmi lesquels les liens ont leur place.

    • les liens mutuels : il y a déjà un problème de cet ordre actuellement, vu que les sites de presse ne lient qu’en interne, ou des sites de leur groupe.

    Mais le développement du journalisme de liens risque en effet de conduire, naturellement, à ce que les journalistes se lient beaucoup entre eux, car les articles de leurs confrères présentent pour eux des garanties de fiabilité des sources et de respect des normes professionnelles dans le traitement de l’information.

    (bleu)Je penses que c’est même exactement tout l’enjeu de la démarche de Karp : faire remonter au maximum dans les hauts de pages de Google les contenus de qualité professionnelle par rapport aux autres. En comptant sur le phénomène pour accroître l’audience de sites pros, et augmenter leur revenu pub !(/bleu)

    Ça peut conduire à des abus : mais ceux qui ne joueraient pas le jeu risquent de se trouver exclus du jeu par les autres. Le système s’autorégule. Par exemple : Morandini se cite beaucoup lui-même, mais il est peu cité par l’AFP et le Monde. 😛

    L’autre conséquence, c’est que tend à se former dans le monde non-professionnel, dans les blogs par exemple, une sorte de liste de sources estimées sûres par certains journalistes, qui se mettent à les citer, et du coup tous les autres suivent en estimant que ces sources ont déjà été validées : c’est l’exemple Eolas.

    Ces sources se retrouvent labellisées “sélectionnées et approuvées par des journalistes”, et bénéficient elles aussi du système : elles sont intégrées dans cet espace que j’ai appelé le “web filtré” et en récolteront les fruits.

    Décidément, le développement du journalisme de liens aura des conséquences vraiment en profondeur. 🙂

  7. J’apprécierais que des blogs qui se veulent sérieux cessent de colporter cette légende urbaine sur le Drudge report et le NYtimes.
    Drudge n’a jamais fait plus de visites que le NYtimes : la pseudo-étude Hitwise qui prétend le contraire ne donne absolument aucune méthodologie et se contente de se référer à un obscur “market share”, dont on ne sait absolument pas comment il est calculé ou mesuré.
    Personne ne nie le succès d’audience du Drudge report, mais en termes de visiteurs uniques, il n’arrivait même pas dans le top 30 de Nielsen pour octobre (contrairement au Huffington post).
    Les seuls classements où Drudge arrive en tête, ce sont les classements basés sur les pages vues, où il n’a pas de mal à arriver premier vu qu’il est le seul à s’auto-rafraîchir toutes les trois minutes (d’où ce chiffre grotesque de 20 sessions par personne ici).

  8. À Narvic : merci pour ces précisions sur ton point de vue. Pour le reste, en terme d’efficacité, je suis un peu largué et donc, j’observe, j’attends de voir ce que ça peut donner 😉

    À Yohann et Narvic : Effectivement, pour « vendre » Drudge Report, Scott Karp s’appuie sur des classements qui concernent le nombre de cessions par personne et le temps passé en ligne. Le fait que Drudge Report rafraichisse automatiquement sa page ne peut qu’augmenter le nombre de cessions par rapport aux camarades de classement.
    Et je ne sais pas si cela a été soulevé, mais le temps de visite important peut se justifier par le fait que les gens doivent garder la fenêtre Drudge Report plus facilement ouverte en fond que pour les autres sites, comme on le fait avec nos lecteurs RSS par exemple. Ce qui ne signifient pas qu’ils passent tout ce temps à consulter les liens de DR, puisqu’ils sont censés lire ce qu’il y a au bout ! (toujours la différence visiteurs/lecteurs qui est peu prises en compte par les instituts — même si pour ce cas, ce serait difficile à déterminer). Bref, les chiffres présentés en argument par Scott Karp me semblent un peu manipulés (cela fait d’ailleurs l’objet d’un édit en fin de billet, que je n’avais pas lu hier soir).

    Cela dit, pour ce qui concerne le nombre de visiteurs, parvenir à se glisser dans le top 50 américain des médias (même loin derrière les premiers) n’est pas mal pour un seul homme et force est de constater qu’il existe probablement des avantages au « link journalism » (je sens que je vais avoir du mal à adopter ce terme 😉 ).

  9. @ Yohan

    Je n’entends pas m’engager dans une bataille de chiffres, surtout en m’appuyant sur ceux de Nielsen, basé sur une extrapolation sur un panel très réduit d’internautes (une méthodologie qui me parait présenter de très grosses insuffisances, et que je trouve même carrément contestable).

    Surtout quand je vois qu’en appliquant d’autres méthodologies, comme celle de Google Trends par exemple (probablement insuffisante elle-aussi) on obtient des résultats très différents : un exemple ici.

    En France, une autre méthodologie, comme celle de l’OJD donne encore des résultats différents.

    En tout cas, ce n’est pas parce que les chefs des services de pub des médias s’entendent entre eux pour vendre à leurs annonceurs la méthode Nielsen des pannels, que je suis obligé moi aussi d’entrer dans la combine et d’avaler la couleuvre. 😛

    Sur le fond : on remplace Drudge Report par Huffington Post si vous voulez, ça ne change rien à mon propos : Huffington Post pratique très largement lui aussi le linkjournalism, contrairement aux sites des grands médias, et il obtient lui aussi un grand succès d’audience, en mobilisant des moyens humains très très inférieurs à ceux des rédactions des grands médias. Moi, c’est cet aspect-là qui m’intéresse, bien plus que la bataille de chiffres entre les vendeurs de pub. 🙂

  10. Juste un mot sur les chiffres de Jean Veronis cité en pied de billet, qui m’ont semblé extrêmement bas. Je me suis amusé à scanner mes papiers sur lefigaro.fr. Une toute petite minorité a 0 lien ou uniquement des liens internes. Les plus fournis comptent jusqu’à 10/15 liens externes, sans compter les sujets type “revue de presse internationale”. A vue de pif, je dois largement éclater le 0,17 lien par article des blogs américains.

    Et à mes yeux, ce n’est pas vraiment une nouveauté. J’ai des impressions de papiers qui datent de 2006 avec également une dizaine de liens externes y compris, déjà, vers les sites de presse concurrents français. Cela dit, il est vrai que les pratiques en la matière sont très disparates en fonction du pays, du titre, et même du journaliste. Si Jean Véronis veut nous faire une moyenne 😉

    Ce qui est VRAIMENT nouveau, c’est l’affichage quotidien de liens externes directement sur la home dans un format de type revue de presse. De ce point de vue, il me semble que les médias français (lefigaro.fr, lemonde.fr, rue89 et quelques autres) sont d’ailleurs assez en avance par rapport au reste de la planète.

    Je signale également un obstacle purement technique: une bonne partie du contenu des sites de news venus du print provient directement d’article portés quasi-automatiquement depuis l’édition papier. En règle générale, ils ne contiennent jamais de liens, si ce n’est parfois en pied d’article pour signaler une référence. Pour automatiser les liens externes, il faudrait soit que chaque journaliste prépare une version print et une version web de ses papiers, soit disposer, au sein d’une rédaction web d’une personne chargée d’enrichir tous les papiers de liens externes. Et croyez-moi, ce serait un job à plein temps.

    Enfin, il me semble difficile d’évoquer l’économie du lien sans s’attarder un peu sur la pratique du “no follow”, qui permet justement de faire un lien externe sans pour autant partager son PageRank. Il me semble d’ailleurs que Wikipedia est toujours en no follow pour éviter le spam. plus d’info ci-dessous

  11. @ Laurent

    • Les chiffres de Jean Véronis m’ont surpris aussi… par rapport à ma propre pratique. Je suis aussi très liant… 🙂 Mais je vois aussi, finalement, beaucoup de billets de blogs sans liens…

    • Sur les difficultés techniques – et organisationnelles – des sites de presse à publier des liens : le problème est réel, je sais bien. Mais je milite pour dire qu’il y a urgence pour les médias à régler cette difficulté. C’est même, à mon avis, plus important que la question des commentaires et de la participation, même s’il faut la traiter aussi.

    • Je n’ai pas abordé la question du nofollow en effet, car je trouvais que le propos était déjà assez compliqué comme ça, et que j’ai essayé de rester accessible (tous les lecteurs de ce blog ne sont pas mathématiciens ou informaticiens, à commencer par moi 😉 ).

    Tu appliques finalement la méthode Jarvis pour moi : “link to the rest” !

    Les sites de presse qui pratiquent largement le no follow (ceux du Monde interactif par exemple ? 😉 ) devront s’aligner, à mon avis, car c’est de l’anti-jeu vis à vis des autres. La balance entre risque spam et avantages du linkjournalism va basculer en faveur du second. du moins, c’est souhaitable.

    • Sur l’apparition des sélections de liens sur les homepages des médias français : il semble en effet qu’un déclic se soit produit récemment, en même temps que la multiplication des liens dans les articles et l’ouverture à des liens vers des blogs.

    Les rédactions de 20minutes, lepost/lemonde.fr et Rue89, auront clairement été des moteurs de ce phénomène, qui se généralise maintenant aux autres. Et c’est très bien (même s’ils ne citent pas encore assez novövision :-)) ).

  12. Merci pour cet article passionnant dans lequel j’ai encore appris plein de choses 🙂
    Cependant, concernant le PR, comme cela a déjà été évoqué, il sera difficile pour un site démarrant maintenant d’obtenir un fort pagerank s’il est bâti sur le modèle de DrudgeReport. Le PR visible est beaucoup plus difficile à obtenir depuis quelques mois et les dernières Google dances, et même des sites qui étaient à 7 ont perdu un point (sans avoir subi de sanction particulière de la part de Google). Un PR6 aujourd’hui correspond à un PR7 d’il y a deux ans. Le PR est fondé sur la redistribution et sa dilution. Plus vous faites de liens externes, moins chaque lien n’aura de valeur, et plus votre propre PR sera dilué (donc aura du mal à monter, voire baissera). Sauf si vous faites du no follow. Il est étonnant à ce sujet de constater que DrudgeReport bénéficie d’un PR8 alors que ce n’est qu’une page liens, sans texte. Voir cet excellent article de Duran sur le sujet : http://www.dauran.com/200/les-pervers-du-nofollow/

  13. Remarque Eric, je n’y ai pensé qu’après coup mais il y a un truc qui peut jouer en la faveur du PR de Drudge Report, ce sont les liens de type « via Drudge Report ». Mais d’un autre côté, en terme de redistribution, c’est vrai que plus il y a de liens sur une même page, moins chaque lien de à valeur… on peut donc effectivement imaginer que les liens postés sur Drudge Report n’apportent pas directement beaucoup de PR aux sites liés.

  14. Juste une petite remarque :

    Il me semble que la recette de calcul du Page Rank est aussi secrète que celle de la formule du coca cola.

    Dès lors, une partie de votre propos et des commentaires est basée sur des suppositions, voire des légendes urbaines.

    N’oublions pas que “l’art du référencement” tel qu’il est aujourd’hui pratiqué est un sport de menteur.
    En effet, l’objectif étant de figurer dans le top 3 de la première page de résultats de google, des méthodes de tromperie sont souvent mises en oeuvre
    au détriment de la valorisation du contenu et de la pertinence pour le lecteur.

    N’oubliez pas que nous travaillons avant tout pour des lecteurs.
    Pour paraphraser FORD : ce n’est pas votre journal qui paie vos salaires, mais vos lecteurs (et annonceurs).

    C’est la pertinence et l’honnêteté du contenu qui doit primer et qui sera toujours récompensée au final.

    A travers ce que vous nommez le link journalism, les enjeux sont tout autre car ils concernent plutôt la répartition des revenus publicitaires.

  15. @ Proxiti

    Mon propos ne fait appel qu’au principe général du Page Rank, qui est public, issu de travaux universitaires qui ont donné lieu à des publications, et qui a donné lieu également à des brevets, qui sont eux aussi publics, par définition. Donc : pas de suppositions, et encore moins de légende.

    Les modalités de calcul du Page Rank restent secrètes, le niveau de sa prise en compte dans le classement des résultats de recherche a pu aussi varier dans le temps (ce que suggère Sébastien dans le 1er commentaire) : ça ne remet pas en cause le caractère fondamental du Page Rank dans le fonctionnement de Google.

    L’optimisation du référencement (SEO): c’est justement une stratégie inverse de celle du journalisme de liens ! Je n’ai pas “oublié” d’en parler ici : je cherche seulement à parler de totalement autre chose, de prendre le problème totalement par l’autre bout : par la distribution des contenus, et non par leur production. 😉

    Le SEO est d’ailleurs une perversion du principe de fonctionnement de Google, et il conduit à dégrader la qualité de ses résultats.

    Le journalisme de liens, au contraire, reste pleinement fidèle à de principe, et conduit à améliorer sa pertinence, en diffusant des liens à fort Page Rank sélectionnés sur des critères de qualité du contenu lui-même, et non sur des critères de qualité de l’optimisation des mots-clés.

    Enfin, votre vision du journalisme me semble réductrice : son rôle n’est pas de produire des contenus, il est d’informer. La recommandation de contenus fait donc pleinement partie de son rôle. Le journalisme de liens, c’est avant tout du journalisme.

    Mon propos ici est de mettre en évidence certaines conséquences que son développement entraîne dans la distribution de l’information en ligne. Parmi ces conséquences, certaines sont en rapport avec la publicité, en effet : mais ne confondez pas les causes et les conséquences…

    D’ailleurs, on peut faire la même analyse avec le “journalisme de contenu”, dans ses relations avec la publicité : ça s’appelle le marketing rédactionnel, et on en parle aussi beaucoup sur ce blog, comme vous savez. 😉

  16. Vivement que novision obtienne un PR de 9:)

    Je trouve cette idée d’économie du lien très intéressant, mais je ne vois pas vraiment pourquoi elle devrait rester cantonner aux journalistes.

    Elle est aussi assez déconnectée de web-sémantique alors que c’est l’avenir du web et tout cas la plus grosses menace au monopole de google.

    C’est parce que google promet le web “sauvage” que les internautes reviennent toujours à google et finissent par confondre google et le web ou même l’Internet.

    La valeur de google est d’offrir un web filtré par pertinence mais surtout avec l’assurance d’exhaustivité.

    La promesse d’un site d’information devrait être connaitre toute l’actualité sans avoir a passer par google news.

    Les site médias avaient plus ou moins répondu à cette demande an branchant des fil d’agence en UNE. Y ajouter cette sélection de liens peut-être intéressant. Et c’est surtout dans page de “article” qu’une sélection des liens peux avoir son intéret. Restera a rendre visible cette exhaustivité.

  17. D’un point de vue pratique, je me demande si en cas de réussite ce n’est pas plutôt une déconstruction de google news auquel on pourrait assister.

    Les sites médias sont très dépendant de google news et jouent à créer des articles mises à jour pour sans cesse pour remonter dans google news. L’idée pourrait être de suivre le buzz chez les confrères. Cela me semble assez difficilement vendable ! C’est au niveau de l’économie de l’information en ligne dans son ensemble que l’effet positif se resentirai.

    La rotation des liens sur rue89 (très lente) montre bien qu’il faut de l’énergie pour réussir cela. Cette sélection de liens externes viendra en concurence avec la sélection automatisée de liens internes en général mise à disposition par les gestions de contenu des journaux.

  18. @ Jean-Baptiste

    Je ne trouve pas que Google soit si pertinent que ça justement. En attendant le web sémantique, mais ça n’est pas pour demain, l’accès à l’information par la recommandation me semble plus pertinent que par les moteurs de recherche.

    Ça ne concerne pas seulement les journalistes, bien entendu, mais le “linkjournalism” est un projet précis, inventé par des journalistes, avec une stratégie particulière – et intéressante – que j’ai tenté de présenter ici.

    Ça n’empêche nullement d’autres projets de se développer dans toutes les dimensions de la recommandation, et notamment à travers les outils des réseaux sociaux…

    @ Jeff

    Merci de l’info.

    Il y aurait sûrement à creuser très en profondeur sur la signification de ce chiffre. A quoi correspondent réellement les chiffres des visites issues de Google ?

    Je me suis souvent interrogé ici, et d’autres également, comme Ouinon, sur le “taux de déchets” de ces visites. Quelle proportion correspond à de vrais lecteurs, une fois que l’on a évacué les visites de moins de trente secondes, les fausses routes dues au manque de pertinence des résultats de recherche ou à une utilisation maladroite du moteur ?

    D’autre part, les méthodes utilisées pour capter ce trafic Google, totalement volatile et infidèle, me semblent conduire à une dégradation de la qualité des contenus et à leur uniformisation. Cette course à l’audience tue les contenus.

    Il me semble urgent de développer les solutions qui ne passent pas par Google !

Comments are closed.