chronique de la vie d'un nolife le meilleur de novövision

Web de flux contre web de fond ?

Nous sommes en train de passer insensiblement sur le web d’un modèle dominant de diffusion de l’information à un autre. Du “modèle Google”, construit autour d’un “web de fond” et de l’analyse algorithmique de la popularité des contenus, à un “modèle Twitter”, construit autour d’un “web de flux” et de la recommandation sociale des contenus selon la réputation du prescripteur.

C’est une revanche de l’homme sur la machine et du social sur les mathématiques, mais ce n’est pas sans poser de nouveaux problèmes. On risque en effet de privilégier une diffusion ultra-rapide, superficielle et émotive, plutôt que le recul et l’analyse, qui restent utiles pour évaluer la validité, la pertinence et la qualité des contenus.Web de flux contre web de fond… Deux espaces du web, deux modes d’accès à l’information, qui sont non seulement différents, par la nature de l’information qu’on y trouve et par leur rythme propre de fonctionnement (en publication comme en consultation), mais deux espaces du web, surtout, qui sont aujourd’hui, à l’heure du web “en temps réel”, de plus en plus divergents ?

<doc551|center>

Quelques remarques glanées ça et là, quelques sentiments personnels à l’occasion d’expériences récentes… En tentant de rassembler tout ça en quelque chose de cohérent, cette idée prend forme peu à peu d’une sorte de grand écart, qui me laisse dans une position difficile et inconfortable… à moins de faire des choix. 😉

La polyvalence contre l’expertise

Samuel, sur Authueil, remarquait récemment que le web “des experts” s’essoufflait. Il était bien gentil de me classer dans cette catégorie à travers novövision, alors que, pour ma part, je ne me suis jamais considéré comme expert de rien. Sur le web, j’ai juste tenté d’utiliser la petite expérience du journalisme que j’avais acquise par ailleurs (un expérience que j’ai d’ailleurs toujours veillé à développer de manière polyvalente et généraliste – ce qui me semble contradictoire avec la notion même d’expertise -, en m’essayant à tous les “métiers” du journalisme, du reportage à l’édition avec quelques incursions thématiques, en développant une double compétence qui reste relativement rare dans le journalisme français : l’expérience du terrain, jusqu’au micro-local, et le “journalisme technique”, de l’écran d’ordinateur au “cul des rotatives”).

J’ai appliqué ce que je savais faire à une sorte d’enquête en ligne sur l’avenir du journalisme sur internet, ici même durant deux ans, en choisissant d’en rendre compte en direct, pas à pas. Au bout du compte, j’ai fini par accumuler ici une quantité d’informations, de références, de comptes-rendus de lectures et d’analyses, et je vous ai fait partager les réflexions personnelles que ça m’inspirait. Ce doit être ça que Samuel appelle un travail d’expert. 😉 Pour ma part, je ne l’ai pas vu comme ça. Je préfère parler d’un travail de fond, personnel, progressif, patient, et à long terme, sur un thème précis et très spécialisé, dont j’ai tâché de ne pas trop sortir sur ce blog.

Le web de l’archive et de la sédimentation

novövision relève ainsi d’une forme particulière parmi tout ce que l’on peut trouver sur le web. C’est ce que j’appelle le “web de fond”. C’est un web lent, qui procède par accumulation et sédimentation, qui relève largement d’une logique de documentation et d’archivage. Même si ma démarche a toujours été ici d’une certaine façon “en temps réel” et que j’ai toujours gardé l’œil rivé sur l’actualité du domaine que je me suis attribué, ce regard sur l’actualité venait, dans mon esprit, alimenter une pensée en train de se faire et qui “sédimentait” sous vos yeux. Sans l’archivage des billets, et les liens vers mes propres archives que je glissais presque systématiquement dans mes nouveaux billets, toute la démarche perdait beaucoup de son sens et de son intérêt.

Ce “web de fond” tient l’une de ses particularités d’ailleurs de ses allers-retours permanents entre l’actualité et l’archive, la documentation, les données… J’aime bien l’image proposée sur ce thème par Nicolas Vanbremeersch dans son livre, l’image des “trois webs”. L’un d’entre eux est précisément pour lui ce web de l’archive, un web qui resterait statique, totalement inanimé, si des blogueurs, documentalistes, experts ou journalistes, ne participaient à son “animation”, en plongeant à l’intérieur pour faire remonter à la surface des liens vers les contenus profonds.

La recherche personnelle plus que la relation sociale

Ce “web de fond” est ainsi un web peu polémique, même s’il peut être parfois très personnel, voire intime. C’est un web qui se découvre plus qu’il ne se donne. Il peut donner lieu à des interactions, des réactions, des dialogues, mais ce n’est probablement pas sa dimension principale. Il renvoie plutôt chacun à soi-même : le rédacteur à son travail d’information-documentation et de rédaction, au cheminement de sa réflexion, et le lecteur à son propre travail de lecture et à son propre cheminement dans sa recherche personnelle sur le web.

La dimension sociale de ce web reste toujours complémentaire d’une démarche personnelle et elle ne passe jamais au premier plan. Surtout, cette dimension sociale, qui relève largement de l’immédiateté, de l’actualité, dans la réaction, l’interaction, le dialogue, n’impose jamais vraiment ici son rythme, ni au rédacteur, ni au lecteur.

Bref, “le web de Google”

D’une certaine manière, c’est aussi le “web de Google”, celui du “grand archiviste”, qui analyse sur la durée les contenus qu’il indexe, laissant le temps aux internautes de repérer des contenus valables et de les lier avec les leurs. L’algorithme initial de Google base son principe même sur cette sédimentation des liens, qui permet d’approcher – un peu – la notion de pertinence à travers ce qui reste essentiellement une analyse statistique de popularité.

Pour tenter d’approcher la pertinence par l’analyse de popularité, Google a besoin de temps. C’est dans la durée seulement qu’il peut réussir à trier ceux qui placent des liens plus valables que les autres, apparemment, vers des contenus susceptibles d’être plus pertinents. Dit autrement, un Pagerank de Google, ça se construit.

Et puis il y a le “web de flux”

Le “web de flux” est immédiat et hyper-réactif, en “temps réel” et fondamentalement “social”, interactif. Je m’en étais finalement plutôt tenu un peu à l’écart, avant de (re-)plonger dedans à mon tour. 😉

C’est le web du mail et des forums, qui sont quasiment aussi vieux que le net lui-même. C’est celui, plus récent, des blogs “de conversation”, qui engagent un dialogue entre rédacteur et lecteur, entre blogueurs eux-mêmes. C’est le web de la blogosphère et de la grande conversation permanente qu’elle permet sur internet. C’est le web aussi des sites d’information d’actualité et de leurs “canons à dépêches”…

C’est le web des RSS, ces flux qui parcourent le web dans tous sens, sortant d’ici pour être republiés là. Ce sont des flux désagrégés, par rubrique, mots-clé, requête sur un moteur de recherche, puis ré-agrégés, rediffusés, republiés…

C’est aujourd’hui, aussi, le web des réseaux sociaux, qui prend chaque jour un peu plus d’importance et de visibilité : le web de Facebook, de Twitter, de Friendfeed…

Bien sûr des blogs “lents” comme novövision ont toujours été intégrés eux-aussi dans des formes de réseaux sociaux : réseau de lecteurs fidélisés, réseau de blogs relevant de la même thématique, qui s’échangent, se citent, partagent des informations et des réflexions. Il y a toujours “du” social et “du” flux dans ce fonctionnement-là aussi. Mais ils viennent en appui et complément d’une autre démarche.

Le journalisme du “chaud” et du “froid”

Cette différence que je marque ici, un peu trop nettement pour que ce ne soit pas un peu artificiel, j’en conviens, traverse aussi le journalisme et le monde de l’information depuis toujours. Enfin, depuis qu’existent des moyens de communication rapides et que la presse les utilise. En fait, depuis le télégraphe. Puis le téléphone et la radio, la télé… et internet.

Je connaissais déjà bien ce monde des flux, du “chaud”, de l’actualité, de la “dernière heure”, qui nourrit la presse quotidienne, branchée sur les téléscripteurs “crachant” les fils de dépêches d’agences de presse en continu, et “recrachant” elle-même en continu ses éditions successives. La presse quotidienne régionale est d’ailleurs plus prolixe encore en ce domaine que la presse nationale, en multipliant le nombre des éditions différentes sortant chaque nuit de ses rotatives.

J’en connais aussi les défauts. Les flux ne sont pas propices à la réflexion, ni à l’approfondissement. Ils effacent toute distance, au sens propre comme au sens figuré. Les flux sont chaud, et parfois ils s’échauffent. Les flux entrent parfois en résonance les uns avec les autres, provoquant de puissants effets de vertige.

Et il y aussi un journalisme plus lent, celui de l’enquête, du reportage, celui de l’analyse, du suivi, de l’expertise, de la mise en perspective et en contexte. Journalisme de fond, journalisme de flux…

Cet étrange mode de diffusion de l’information en ligne

La conversation dans les blogs, d’abord, puis les réseaux sociaux, comme Twitter et Friendfeed, et ma démarche de journalisme de liens, surtout, m’ont ramené ainsi peu à peu vers ce monde des flux. Et c’est là que ce sentiment de grand écart a commencé à me travailler sérieusement…

Ce sont mes réflexions sur la nature étrange et nouvelle de la diffusion de l’information sur le web qui m’ont conduit à ces expérimentations sur le journalisme de liens. Au début, il ne s’agissait que d’un complément à l’entreprise principale que je menais sur novövision. Celle-ci s’appuyait sur un travail de veille permanent en ligne, qui produisait tous les jours des masses de liens, à mesure que je “bookmarquais” mes lectures pour les retrouver plus tard et en “nourrir” mes billets.

Je “stockais” ces liens sur la plate-forme Delicious, conçue initialement exactement pour ça, et je partageais ces lectures en plaçant des liens dans mes billets. Cette pratique s’intégrait exactement dans “l’écosystème Google” de diffusion de l’information en ligne. Et c’est précisément cet écosystème qui est actuellement en train de changer en profondeur, avec l’autonomie croissante que prend chaque jour le “web de flux” vis à vis du “web de fond”.

La résistance des journalistes

En refusant jusqu’à peu de temps encore de placer des liens externes dans leurs articles (ils le font d’ailleurs encore assez peu), les journalistes des sites de médias en ligne ne réalisaient pas qu’ils se tenaient hors de cet écosystème de diffusion, et que c’était au détriment de l’audience de leur propre production.

Ça, c’est quelque chose que les blogueurs – et Google – avaient compris bien avant eux ! Pour que l’information se diffuse en ligne, il ne suffit pas d’avoir un beau site avec une belle enseigne placée dessus pour que tout le monde s’y précipite immédiatement. Les journalistes sont souvent un peu présomptueux sur la valeur de ce qu’ils produisent aux yeux de leurs lecteurs, et sur le web… ça ne pardonne pas. 😉

Non, pour que l’information se diffuse, il faut que les liens qui y conduisent se diffusent eux-aussi. C’est ce que font les blogueurs depuis toujours en truffant leurs billets de liens vers les contenus dont ils parlent. Et c’est ce que fait Google aussi, en récoltant tous ces liens postés par les blogueurs pour les passer dans son grand mixeur et les redistribuer sur ses pages de recherches après de savantes pondérations.

Un écosystème entre Google et les blogueurs

Un écosystème assez vertueux s’est ainsi créé entre Google et les blogueurs (mais sans les journalistes et les sites de médias, qui n’y participaient pas, et même le subissaient), qui conduisait à mettre en place un système de diffusion de l’information propre au web, et d’une nature totalement différente de ce qu’on avait connu auparavant. Jusqu’à ce que cet écosystème soit fragilisé et même fondamentalement remis en cause aujourd’hui, par le développement progressif de nouvelles pratiques par les internautes. C’est venu tout seul, insensiblement, et c’est parce que la situation nouvelle commence à murir aujourd’hui, qu’on s’aperçoit rétrospectivement que le mouvement était engagé depuis quelques temps déjà…

Sans que je m’en aperçoive tout de suite en effet, ma propre démarche – par exemple – avait en réalité changé de nature quand je me suis mis à diffuser des flux de liens en parallèle à la rédaction des billets de mon blog et sur des canaux différents…

Mon retour vers les flux

C’est par le RSS et à travers ma veille en ligne que je suis ainsi revenu aux flux. J’ai “tiré” un flux RSS de mon compte Delicious, qui était alimenté au quotidien, et je l’ai diffusé sur mon blog. J’ai cherché d’autres flux du même type, émis par d’autres dans le domaine qui m’intéressait, et je les ai agrégés. A quelques uns, dans notre petite blogosphère qui s’intéresse au journalisme, à internet et aux médias, nous avons développé la démarche en réunissant nos flux de liens, en les croisant, et en les rediffusant collectivement. Tout ça commençait à prendre une forme ressemblant de plus en plus à celle des fils d’agences de presse, et la diffusion de ces flux de liens commençait à ressembler de plus en plus à une nouvelle forme de… publication : on a appelé ça “le journalisme de liens”.

Nous avons commencé ainsi à diffuser nos flux de liens indépendamment de nos billets de blogs, en les affichant sur une colonne sur le côté de la page. Et même à les diffuser hors de nos blogs, directement vers les agrégateurs de nos lecteurs. Cette “autonomisation” des flux de liens a pris une autre dimension… quand nous avons branchés ces flux directement sur nos réseaux sociaux, et d’abord… sur Twitter.

Ce canal de diffusion de l’information en ligne créé une situation très nouvelle, car il n’est plus appuyé sur le réseau des blogs comme auparavant. Ce qui pose d’ailleurs à Google une véritable difficulté.

Mais à quoi peut bien servir Twitter ?

On aura mis longtemps à trouver à quoi pouvait bien servir Twitter, qui soit autre chose qu’une sorte de tchat géant en ligne. Ça aura mis deux ans, en fait. Je me souviens bien comment au début (ce blog est né à peu près en même temps que Twitter), on trouvait le truc étrange et pas très utile au fond. Super-tchat, micro-blogging, réseau social, on ne sait toujours pas très bien comment appeler ça d’ailleurs, et la plupart des usagers sont encore très déroutés par l’engin à leurs premiers contacts tellement il est peu “intuitif”.

Il est très symptomatique, à mon avis, que Twitter séduise aujourd’hui avant tout des spécialistes de l’information sur le net, c’est à dire – en gros – des blogueurs “techno” et des journalistes, et que l’usage principal qu’ils en font, c’est de diffuser des liens vers des billets dont ils recommandent la lecture.

La déconnexion du blog et des flux de liens

On peut même noter que l’émergence de Twitter traduit tellement cette déconnexion en cours de la publication de blog d’un côté et de la diffusion des liens de l’autre (auparavant si intrinsèquement mêlées), que certains des plus actifs et des plus suivis sur Twitter ne tiennent même pas de blog. Ils n’en ont jamais tenu, ou bien ils abandonnent ou encore ils baissent de régime dans leur production de billets (tout le monde a remarqué que Twitter avait nettement tendance à se substituer en partie au blogging…).

L’utilisation de Twitter comme outil de diffusion de l’information en ligne “en temps direct”, par diffusion de liens, conduit d’une part à accélérer considérablement la vitesse de diffusion, et d’autre part à opérer cette diffusion totalement en marge de Google. Tout ça n’étant tout de même pas un petit changement.

Attention aux avalanches !

La vitesse d’abord. Aussitôt publié, le nouveau billet est twitté par son auteur (certains, comme moi, ont même branché une “bretelle” RSS pour que l’opération soit entièrement automatisée). Aussitôt le billet lu, aussitôt son lien est “retwitté” par le lecteur. Et ainsi de suite. On se trouve là devant une “pure” structure de diffusion dans un réseau organisé “en grappe”, et, qui plus est, instantané. Ces réseaux en grappe, dont l’une des particularités est d’être formés autour de nœuds plus connectés que d’autres, sont particulièrement propices aux effets de diffusion “en avalanche”. La diffusion est accélérée, voire démultipliée, chaque fois qu’elle atteint l’un de ces nœuds très connectés.

La structure d’internet lui-même, d’ailleurs, est celle d’un réseau en grappe, mais on en trouve avec Twitter une forme simplifiée qui en augmente considérablement l’efficacité dans la quasi immédiateté. On est au cœur-même du “web de flux”.

Cette diffusion par Twitter s’opère aussi totalement en marge de Google, qui a bien du mal à intégrer les liens issus de Twitter, car il est lui-même conçu et bâti sur la logique même du “web de fond”. Ce n’est pas, loin de là, pour Google une simple question de quantité et de rapidité de traitement d’une masse croissante de données.

Google est démuni

Google ne dispose plus, sur Twitter, de l'”assise” du texte du blog dans lequel il repérait les liens pour qualifier ces liens et savoir comment les rediffuser. Dans le “web de fond”, ce sont des publications qui diffusent des liens (et pour l’essentiel, il s’agit des blogs). Dans le “web de flux”, ce sont des personnes. Le Pagerank de Google ne concerne pas les personnes : si la déportation massive de la “production” de liens depuis les blogs vers les réseaux sociaux se poursuit à ce rythme, Google pourrait bien se trouver un peu démuni pour alimenter son moteur, qui perdrait sérieusement de son intérêt…

Pour le lecteur, ce n’est qu’une question d’adaptation. Ce n’est pas forcément simple à faire, mais ce n’est pas hors de portée d’une intelligence humaine. L’intérêt et la crédibilité d’un lien, pour un lecteur du web, sont “portés” par la réputation de celui qui le propose. Sur un blog, le lecteur dispose de nombreux éléments pour établir la réputation de l’auteur à ses yeux (les textes eux-mêmes d’abord, et le contexte ensuite : auteurs et nature des commentaires, autres liens proposés, autres billets, échos ailleurs sur le web de ce blog, de son auteur, les pagerank et autre classements en tous genres, etc.).

Une question de réputation avant tout

Sur Twitter, on dispose de moins d’éléments : la qualité et la cohérence de la production d’un twitteur (que l’on ne peut juger qu’avec un peu de temps) et sa réputation “sociale” : nombre de personnes qui le suivent (notamment parmi ceux qui figurent également dans mon propre réseau, puisque la règle est que les amis de mes amis sont mes amis. ;-), fréquence de republication par d’autres (“retwitt” ou “RT”) des liens qu’il diffuse. La référence à un blog de ce twitteur constitue bien entendu un argument utile, de même que d’autres techniques qui se développent : les sélections de sources de liens proposées par la pratique du #followfriday, les divers classements d’utilisateurs qui apparaissent…

Autant de données qu’il est en revanche fort difficile à Google d’appréhender. Avec Twitter se profile ainsi un modèle de diffusion de l’information, qu’à vrai dire on attendait !, non plus basé sur des algorithmes de popularité, mais sur la recommandation sociale entre les utilisateurs.

C’est certes une revanche de l’humain sur la machine, mais ce n’est pas sans poser certains problèmes tout de même.

Peut-on aller contre le flux ?

Le premier d’entre eux, à mon sens, c’est le risque d’un web de flux sans le fond… Le “modèle Twitter” privilégie l’immédiateté et la popularité (voire le suivisme ou le conformisme) sur tous les autres critères de sélection de l’information. Il est extrêmement difficile d’aller “contre le flux”, alors que l’on est porté par lui si l’on s’insère dans le cours dominant. Twitter est une formidable caisse de résonance pour les mouvements qui font déjà le plus de bruit, et un étouffoir pour les autres.

Le risque est grand que n’en émerge au bout du compte que le superficiel, le futile, le léger, l’éphémère, bien plus que de la véritable intelligence collective. Ce n’est finalement pas un très bon système pour découvrir de l’inattendu, du non-conformiste, pour promouvoir ce qui est important et intelligent, plutôt que le reste…

C’est aussi un système réellement épidermique, propice à l’emballement, et qui s’emballe avec une telle force d’inertie quand une “avalanche” est lancée qu’il semble difficile de la contrecarrer quand ce serait pourtant utile de le faire : quand un buzz relaye une information fausse, voire une manipulation ou une calomnie.

Ce n’est pas un système non plus qui favorise la contextualisation de l’information, sa mise en perspective, par un recul, une analyse, une documentation, et il va trop vite pour permettre réellement la vérification.

Plus que jamais, le journalisme de liens

Ces effets boule de neige, que Twitter facilite et même amplifie, pourraient bien au bout du compte présenter les mêmes défauts que l’on reproche aujourd’hui aux médias de masse.

Autant l’avouer, même si c’est bien délibérément la direction que je prends de m’y plonger à mon tour : je ne suis pas tout à fait à l’aise avec ce nouveau modèle de diffusion de l’information que je vois se dessiner sur le web.

Il y a beaucoup de liens dans tout ça, mais pas beaucoup de journalisme. Je ne cherche certainement pas en disant ça à défendre une corporation, car je n’ai aucune affinité avec ce corporatisme. Mais il y a dans le journalisme une idée qu’il me semble tout de même importante à défendre : une idée de qualité, d’indépendance, de transparence, une idée de service rendu au public (ce qui implique bien sûr de lui rendre aussi des comptes).

Bref, ça manque de filtre, de profondeur, de contexte et de vérification…

Ça manque aussi de recul, voire de distance, de sang-froid, de mémoire, de patience…

C’est tout cela qu’il serait souhaitable de “réintroduire” dans cette nouvelle machine en formation, pour qu’elle ne s’emballe pas tous les jours, ne nous envoie pas dans le mur toutes les semaines et au fond du ravin une fois par mois.

Des épisodes d’emballement excessifs, comme on en connait actuellement, selon moi, sur des affaires Polanski ou Mitterrand, ne sont pas des signes encourageants. Une machine de diffusion de l’information aussi formidable que ce “web de flux”, illustré aujourd’hui par Twitter, jusqu’à ce qu’un service plus perfectionné ne le remplace, peut produire le meilleur comme le pire. Une telle machine relaye et amplifie l’air du temps. Si celui-ci est au populisme (que ce soit d’ailleurs un populisme de droite ou un populisme de gauche), elle ne fera que potentialiser… le populisme.

Il me parait utile de chercher des remèdes, et “mettre du journalisme là-dedans” pourrait en être un, du journalisme tel que je l’entends, comme je l’ai dit plus haut, pas du markéting et de la course à l’audience, pas cette fusion indigeste dans laquelle versent aujourd’hui à peu près tous les médias de masse d’une information superficielle, de communication, de divertissement, enrobés dans le simplisme à outrance et la mise en scène voyeuse et inquisitrice. Mais je crois que vous aviez compris de quoi je voulais parler. 😉

Bon et bien, c’est à “mettre du journalisme là-dedans” que j’essaye de travailler aujourd’hui… en n’oubliant pas de passer par ici de temps en temps, pour me replonger aussi un peu dans… le “web de fond”…

25 Comments

  1. Section : “Plus que jamais, le journalisme de liens”
    3ème paragraphe : Il y a beaucoup de liens dans tout ça (…)
    Première ligne, 2ième phrase : Je ne chercher (…)

    Un r en trop …

    😉

  2. Un tres bel article. Je ne suis pas sur pour ma part de Google aura des problemes a absorbe la meta-information generee par les interactions sociales. Leur model interne est qui est deja base sur la notion d'”authority” tres flexible, et ils savent parser tres vite. Les quelques annees a venir vont etre interessantes

  3. Très intéressant, comme toujours. Petite remarque cependant : je ne crois pas que ce soit une revanche du “social sur les mathématiques”. Je crois simplement que c’est un changement d’outils mathématiques. Les algos seront toujours là, et même plus que jamais, pour nous aider à faire émerger le signal du bruit (car sur Twitter et autres, le rapport signal/bruit est infiniment plus faible que sur le Web “de fond”).

  4. Super article comme toujours,

    A 80% je suis d’accord
    Je ne crois cependant pas qu’il y ait d’opposition entre travail automatique et algorithmique de machines et la satisfaction humaine au niveau recherche.
    Je crois plutôt qu’avec le temps, il va falloir se libérer du travail fastidieux pour l’oeil et la main de scanner des centaines voir de milliers de liens.
    Que ce soit par Twitter, ou lorsque les données WordPress, Typepad et Blogger seront consultables en temps réel parce qu’orientées en RSS ou Atom Cloud. La puissance de découverte sera du côté de celui qui mettra les machines de son côté et justement ne cherchera pas à dépasser la machine en reproduisant le même travail à la main qu’elle.

    Je comprends qu’aujourd’hui ce soit encore possible parce que nous vivons dans une période intermédiaire de deux ou trois années et que nous n’avons pas encore tous les usages possibles et recommandables ou recommandés. Mais avec la progression des internautes vers ces outils, et le raffinement continu des méthodes de recherche, ce combat “à la mano” contre les machines est perdu d’avance.

    Pour l’e-reputation, je resterais prudent, très prudent, car on ne sait pas vraiment ce que c’est, comment on la mesure et si le système followers/following va être au final employé ou cèdera le pas à d’autres critères et méthodes non apparents. Je dis cela parce que, par exemple, les premiers moteurs de recherche ont beaucoup tablé sur les méta-tags présents dans l’en-tête des pages HTML, on enseignait à l’époque à tous les designers Web de bien les remplir lorsqu’ils fabriquaient un page de contenu, alors que Google aujourdhui ne repose plus du tout sur leur analyse et les laisse de côté.
    Thierry Crouzet a bien montré que le système de Twitter était aisément et mécaniquement détournable, donc je serais n’importe quel moteur de recherche aujourd’hui, ma première décision serait justement de ne pas me fier à ce système qui est en train de devenir une vaste tricherie et risque donc d’orienter mes résultats de la mauvaise façon.

    Sinon, je ne m’en fais pas pour Google, il est déjà capable sur un fond éminemment plus vaste de documents, sur le Web, de proposer des recherches qui frisent le temps réel.
    Il a d’ailleurs été l’un des premiers sur les flux, c’est d’ailleurs le premier qui sait associer en un temps record et avec le meilleur taux de pertinence (très loin devant Facebook, qui n’a rien montré) un flux de textes ou d’articles, avec un flux de publicités ciblées.

  5. Il y a un gain de productivité là dedans : dans le mot-clé #jeansarkozypartout on peut faire tenir des kilomètres de discours social et politique. L’avis d’un éditorialiste de la grande presse sur le sujet ne servira qu’à ajouter du verbe au verbe et à nous éloigner des problèmes. Bon, peut-être que je suis un peu angélique dans ma description de la métamorphose des sociétés humaines en idiocraties…

  6. Tout dépend de l’usage que l’on fait d’un outil tel twitter : un blog, un microblog, un média se vautrent indifféremment dans la même boue pseudo-journalistique ; autant de merde sur internet (blog, microblog et site d’info) qu’à la télé, autant d’excellence, aussi ; encore une fois, l’usager a le choix de 1/ se servir de son cerveau 2/ de le ranger au frigo

    p.s. comme tu semblais preneur de corrections, en voici:

    çà et là (accent sur ça); une (une) expérience que j’avais d’ailleurs ; dans tous les sens ou en tous sens ; les flux sont chauds (s); vis-à-vis tirets; quand nous avons branché pas de s ; c’est-à-dire tirets ; marketing sans accent ; bon eh (pas et) bien ;

  7. Je lis votre billet alors que j’ai démarré ma propre activité sur Twitter il y a quelques semaines seulement… et alors que ma présence sur FB semble déjà diminuer en proportion. L’empirisme semble donc confirmer par la théorie qui vient. Vos observations, toutefois, semblent aussi faire écho au colloque de juillet dernier, “LA SÉRENDIPITÉ DANS LES SCIENCES, LES ARTS ET LA DÉCISION”, à Cerisy-La-Salle.
    Dans le jeu Twitter/Google, que vous décrivez assez clairement, il semble bien que, à coté des bénéfices à tirer de l’inertie de Google en raison de son temps de résonance nécessaire pour qu’une (bonne) information remonte en haut de page, la rapidité de Twitter favoriserait -pour les plus avertis et “grâce à une observation surprenante- leur don de faire des trouvailles et la faculté de découvrir, d’inventer ou de créer ce qui n’était pas recherché”. Le brouillage occasionné par la rapidité de l’outil n’est-il pas ainsi compensé par le contrepoids qu’il propose devant le monopole Googlien, qui trouverait ainsi son autre “naturel” avec lequel il faudrait compter et agir, sans plus jamais pouvoir l’éliminer ? Les deux termes (flux et fond) étant en définitive les deux faces d’une même médaille. Sachant que l’apparition de l’une était déterminée par la maturation de l’autre.

  8. Un des soucis du weblecteur (par parallèle au webacteur de pisani)-journaliste est de remettre du sens, dans ce qui apparaît parfois comme un foutoir. Quand sur Vendredi info, tu sélectionnes, titres, présentes, etc, c’est un travail de journalisme et d’édition. Mais bien sûr, ce sont tes choix de rédac chef mais moi rédacteur en chef, j’en ai d’autres.
    Or, je suis déroutée par l’absence quasi-totale de ce qui se dit et se fait ailleurs. Autrement dit, au lieu de nous ouvrir sur le monde, nous sommes recentrés sur une blogosphère franco-française pour ne pas dire parfois franchouillarde et rarement francophone.
    Et c’est pareil ailleurs. Les espagnols parlent aux hispanisants, les italiens aux italophones etc…On ne relaye éventuellement que les anglo-saxons
    Pourtant, les outils sont là….y compris pour les traductions (voir les volontaires pour twitter)

  9. Archiver des flux ?

    L’identification d’un flux repose sur celle d’un lieu ou d’une source…

    À travers signets, agrégateurs ou “following” (j’aurais préféré en anglais “followees” ou “followed” face à “followers”, ou “suivis”, “suiveurs”) nous archivons ces lieux ou “autorités”.

    À quand un archivage de nos “net identities” qualifiées (et horodatées) chez Google ?

  10. Intéressant, mais pas pleinement convaincu de cette dichotomie entre le flux et le fond. Pourquoi ? Parce que malgré tout, les deux utilisent des outils et des méthodes très proches. Le web de flux analyse également sur la durée (même si les durées sont plus courtes) les contenus qu’il indexe : influence, audience et impacts sont toujours les éléments du succès. Les deux permettent des conversations qui ont surtout comme différence le rythme (et peut-être le signal/bruit si l’on en croit le commentaire (laconique) de Jean Véronis).

    Je ne suis pas persuadé non plus qu’il y ait une autonomie croissante du web de flux par rapport au web de fond. D’abord parce que les techniques d’indexation sont mouvantes et que ce web de flux va avoir tendance à être toujours mieux indexé par le web de fond jusqu’à servir à en modifier le classement. Et dans l’autre sens, le web de flux consiste aussi, beaucop, à puiser dans le web de fond.

    Pour ma part, je demeure sceptique sur la valeur de Twitter comme outil de veille : car il permet de faire moins bien ce que d’autres outils font très bien (et il suffit qu’un bon moteur indexe mieux les informations temps réel pour que son avantage comparatif s’effondre). Par contre, il est utile pour la réactivité, l’échange en quasi temps réel… L’accélération de la diffusion est utile à certains moments, mais comme tu le dis, elle a ses défauts : notamment la concentration. Pour l’instant, elle permet une diffusion en marge de Google, mais on peut être persuadé que cela ne durera pas. A mon avis, Twitter nous montre juste comment l’information s’est toujours diffusée : elle a la même arborescence que celle qu’on trouvait dans les blogs où le fait qu’un autre parle d’une même info, lui redonne des ramifications. Si ce n’est qu’ici, les effets sont concentrés sur quelques heures, une journée, pas plus.

    Je ne pense pas que Google sera encore démuni longtemps. Les personnes en question dans le web de flux sont des documents comme les autres (leurs comptes ont une audience et une influence mesurable, qui permet de faire facilement du PageRank like).

    Le flux a toujours été le fondement de l’information et il a toujours vécu en même temps que le fond – mais pas dans les mêmes proportions. Les effets d’emballements n’ont rien de nouveau, ils ne cessent de s’accroître, certainement. Le vrai problème de ces outils de l’instant (qui demandent une connexion permanente, qui invalident le recul car nécessitent d’être dans l’instant présent), c’est qu’ils favorisent justement les emballements… C’est ce que nous disent les études des neurosciences sur le sujet : plus on accélère la cadence, moins on est apte à exercer son esprit critique, à prendre le recul nécessaire.

    Que ces outils soient des outils adaptés aux drogués de l’information, ce n’est pas surprenant. Qu’il soit adapté à l’information, c’est une autre question. 😉

  11. Bonjour,

    Ce billet recoupe bien de mes impressions à deux nuances importantes près :

    Pour le moment, il y a un abîme entre les rentrées financières de Google et celles des concurrents dont vous parlez comme Web de flux. Méfions nous donc du flux éphémère, non parce qu’il se renouvelle sans cesse, mais parce qu’il n’a pas de base économique. Bien des services vedettes du Web ont déjà été oubliés par le passé..

    Je ne crois pas à la fin des experts, mais bien au contraire à leur chance renouvelée et ce billet d’A Kluth repéré par Pisani me conforte dans cette idée : http://andreaskluth.org/2009/09/26/my-changing-media-habits-or-there-is-no-crisis/

    Conclusion :

    What I have discovered in my own personal media behavior is that I am today better informed than I have ever been before. But much of the information I consume no longer comes from journalists.

    Instead, much, much more of it now comes from universities and think tanks in my RSS reader and iTunes University, from scientists and thinkers and other experts at conferences such as TED, and from you, who are a self-selected and thus qualified bunch of editors.

  12. Je suis souvent admiratif des articulations de vos billets. Ici, encore, je reconnais cette capacité à écrire tout haut ce que vous pensez. Mais je reste un peu sur ma fin quant à la terminologie que vous employez : flux contre fond. Je suis conscient que la nouveauté de tous ces concepts. Mais autant je perçois bien la dualité entre le Google-like web et le Twitter-like web, autant je ne suis pas certain que flux/fond conviennent.

    Le fond, tel que vous le décrivez, est constitué aussi par l’ajout de couches successives de flux. Et le flux serait comme un feu d’artifice permanent. Désolé d’en venir à des images assez pauvres. Mais la conclusion logique est que le fond est le résultat (la sédimentation) des feux d’artifices éteints… Je m’égare ?

    N’est-il pas possible de parler davantage de Web de la mémoire et de Web de la perception ? Le Web de la mémoire est effectivement constitué par un dépôt constant et permet la réflexion, la formulation et la production. Mais il manquait, avant l’irruption du principe de Twitter (qui n’est pas, à mon avis, encore aboutit), un Web de la perception, que vous identifiez comme un moteur de production de liens, mais qui du point de vue d’une liaison organique permet également la perception du reste du Web, du made in ailleurs. Ce Web de la perception est constitué d’expositions de signaux, de messages et de liens et permet la reconnaissance, la validation et la décision.
    Je m’aventure là… car je n’ai pas de réponse à ces questions. Seulement des pistes…

  13. @ Temps-futurs (et en fait @ tous)

    Il ne faut peut-être pas prendre ce billet pour autre chose que ce qu’il essaie d’être, comme vous l’avez lu, une réflexion à haute voix. Jean-Marie Salaün souligne d’ailleurs son caractère “impressionniste”, que je ne renie pas. 😉

    Je parviendrai peut-être, avec votre aide, à trouver une formulation plus précise et cohérente, et à intégrer vos remarques. Je sens bien que quelque chose change DANS le web. C’est autre chose que de remarquer que le web fait changer des choses par rapport au monde IRL.

    Ma formulation est probablement imprécise, mais c’est parce que mes idées le sont. Je vous l’ai promis : ici, c’est “une pensée en train de se faire”… Comme Jean-Marie, je ne lâche pas le “web de fond”, et je poursuis le projet engagé ici, même si ce sera probablement un peu plus lent encore dans la période qui vient. 😉

  14. Google est en train de rattraper à grande vitesse le secteur du “web de flux” , en particulier avec Gmail (avec Wave notamment) et GoogleReader. Mais c’est discret, et seuls les utilisateurs du service le voient. Ainsi GoogleReader possède maintenant un systême de recommandation sociale extrêmement flexible (bien plus étendu que la page de partage) en intégrant notamment deux outils. La “recommandation” qui permet d’approuver un contenu (systême type “digg”) sans pour autant le partager directement ou le “favoriser” devrait permettre de régler plus finement le pagerank pour ce qui relève du web de flux. Mais surtout la notion directement sociale, qui permet de se constituer un groupe de recommandeurs (systême type “twitter” ), ceux-ci pouvant également laisser de brefs messages ou commenter les billets (c’est encore balbutiant côté français, la masse critique d’utilisateurs n’étant clairement pas atteinte) …

    Ces outils permettent de naviguer entre utilisateurs (qui a recommandé, qui cette personne suit-elle) , à la manière du Facebook des débuts…et tout cela intègre un systême de gestion privée/publique des différents éléments.

    Je note également que Google incite progressivement l’utilisateur à utiliser sa page “profil” , celle-ci bougeant discrètement mais sûrement. Bref, les services auxquels vous faites référence doivent se bouger vite s’ils ne veulent pas se trouver d’un coup remplacés par un Google qui, quoi qu’on en dise par ailleurs, tient réellement du génie dans sa politique commerciale. Le truc, comme l’avait bien analysé jenesaisplusquelblogueur, c’est que de toute manière toutes ces extensions de Google mettent un coup de fouet aux entreprises des secteurs concernés y compris en cas d’échec direct (ce qui amène plus d’utilisateurs in fine à l’utilisation du web et donc au moteur de recherche, source principale de revenus ) : c’est un peu “pile je gagne, face tu perds” 😉

  15. Amusant, j’ai eu l’impression de lire un papier sur la maturation des réseaux de neurones, les blogs seraient les corps cellulaires des neurones, et les différents types de liens qu’ils établissent entre eux renverraient aux différents types de connexions plus ou moins spécialisées plus ou moins rapides qui permettent l’adaptation des comportements, les commentaires jouant le rôle des neurotransmetteurs. Je ne m’étais jamais intéressé à twitter, mais peut être que lui et facebook valent le détour finalement. Avec le développement de ce type de connexions rapides, impulsives mais apparemment encore imprécises, je dirais que la maturation d’Internet s’apparente à celle du cerveau d’un enfant qui apprend à marcher… ou pour être plus précis, Internet permet à l’humanité de se doter d’une structure d’échange de l’information similaire à celle du cerveau d’un enfant qui apprendrait à marcher, l’avant Internet correspondrait alors au développement in utero du cerveau… Allez courage encore quelques années, et on sera assez grand pour pouvoir se passer des politiques !

  16. Pour ma part, je demeure sceptique sur la valeur de Twitter comme outil de veille : car il permet de faire moins bien ce que d’autres outils font très bien (et il suffit qu’un bon moteur indexe mieux les informations temps réel pour que son avantage comparatif s’effondre). Par contre, il est utile pour la réactivité, l’échange en quasi temps réel… L’accélération de la diffusion est utile à certains moments, mais comme tu le dis, elle a ses défauts : notamment la concentration. Pour l’instant, elle permet une diffusion en marge de Google, mais on peut être persuadé que cela ne durera pas. A mon avis, Twitter nous montre juste comment l’information s’est toujours diffusée : elle a la même arborescence que celle qu’on trouvait dans les blogs où le fait qu’un autre parle d’une même info, lui redonne des ramifications. Si ce n’est qu’ici, les effets sont concentrés sur quelques heures, une journée, pas plus.

    jump manual | Earth4energy

  17. Bien qu’il faille reconnaitre l’importance de plus en plus importante de facebook et autre twitter, google a encore un bel avenir devant lui. Je vois mal faire une recherche d’information sur twitter et facebook et me retrouver avec des dizaines d’information contradictoires et non vérifés… Daniel de scrabble solver

Comments are closed.