le salon

Des journalistes en réseau, pour contrer Digg et Google

Je surveille attentivement les développements du projet Publish2, de Scott Karp, qui ouvre des perspectives totalement nouvelles pour le journalisme en ligne : “le journalisme de liens en réseau”.

L’originalité de la démarche de Scott Karp, voire son caractère révolutionnaire (au sens politique du terme), c’est qu’il voit dans son projet rien moins qu’une solution pour que les journalistes reprennent la main sur le web face au monopole que se sont constitué Google et Digg dans la distribution de l’information.

Et pour y parvenir, il appelle les journalistes à se fédérer en réseau, pour prouver que, collectivement, des journalistes peuvent réussir en ligne à faire quelque chose de plus pertinent que les machines et générer autant de trafic, sinon plus qu’elles.

Rien que pour ça, ça mérite qu’on s’y intéresse…Le projet Publish2, en cours d’élaboration depuis plusieurs mois, toujours en version “béta privée” à l’heure actuelle, est présenté comme un “digg-like alimenté par des journalistes”, c’est à dire une nouvelle manière d’informer en proposant des liens, sélectionnés par des journalistes, vers des sources d’information repérées et évaluées selon des standards professionnels.

Il s’agit là réellement d’une nouvelle forme de journalisme, que l’on pourrait appeler aussi un journalisme d’“agrégation éditorialisée” (cf. novövision : “L’avenir du journalisme : tu seras un agrégateur humain, mon fils !”).

Sur le blog du projet Publish2, Scott Karp a publié, en février dernier, un billet pour défendre la thèse passionnante selon laquelle ce “journalisme de liens en réseau” (“Networked Link Journalism”), peut donner aux journalistes, collectivement, un pouvoir comparable à celui de Digg ou de Google (“How Networked Link Journalism Can Give Journalists Collectively The Power Of Google And Digg”).

Selon lui, ce “journalisme de liens” est un concept qui prend du poids. Sa proposition est de passer à la vitesse supérieure en le pratiquant en réseau.

Il cite notamment le témoignage de Jack Lail (managing editor/multimedia for The Knoxville News-Sentinel) :

Je poste des contenus qui consistent en des liens vers des blogs depuis un an et demi et j’inclus depuis longtemps des liens sortants dans mes propres articles. Mais ces efforts s’accélèrent. J’ai commencé récemment à expérimenter avec Karp, la création de séries de liens comme un contenu, certains créés par une seule personne “bookmarquant” des contenus pertinents, et d’autres comme un effort collectif de plusieurs “bookmarkers”.

Les résultats sont impressionnantes. Ces articles formés de liens sortants sont fortement générateurs de trafic, parce que, je crois, ils fournissent un service précieux de gain de temps aux lecteurs. Plusieurs fois dans la semaine passée un article de liens s’est retrouvé n°1 de la journée sur le site combiné knoxnews/govolsxtra.


Selon Scott karp :

Toutes ces observations confirment la valeur journalistique de fond – et la valeur du contenu – des liens dans le cadre d’un travail d’information spécifique, c’est-à-dire un journalisme de lien faisant l’équivalent d’un article de presse. Mais ce journalisme de liens vaut-il l’ensemble d’un journal ? C’est là que le journalisme de lien en réseau entre en scène.


Le journalisme de liens en réseau combine tous les liens créés par des journalistes pratiquant le journalisme de liens pour déterminer le contenu le plus important, le plus intéressant et le plus médiatique lié par des journalistes.

Dans la forme la plus simple de journalisme de liens en réseau, un lien = un vote. L’article de presse qui recueille le plus de votes passe en tête.

C’est le journal de l’avenir – ou plutôt le journal d’aujourd’hui. C’est comme ça que fonctionnent Google et Digg, en combinant la puissance d’un grand nombre de liens.

Qu’est-ce qu’il y a sur une page de recherche de Google ? Ou sur la page d’accueil de Digg ? Un tas de liens.

Mais pas n’importe quels liens – les “meilleurs” liens.

Pourquoi tant de gens vont sur Google et Digg pour cliquer sur ces liens ? Pourquoi génèrent-ils tant de trafic sur le web ?

Parce que ces liens sont déterminés par des réseaux, pas par des individus, et les réseaux sont ce qu’il y a de plus puissant sur le web.

Une personne pratiquant le journalisme de lien peut générer des dizaines, ou dans le cas d’un “top journaliste-blogueur”, des centaines de visites pour chaque liens. Des super journalistes de lien comme Glenn Reynolds ou Andrew Sullivan peuvent en générer quelques milliers. Matt Drudge, l’exception qui confirme la règle, peut en générer des milliers et des milliers.

C’est juste une question d’échelle.

Les journalistes pratiquant le journalisme de lien de manière isolée peuvent influencer la distribution des contenus en ligne (ce que la plupart des journalistes ne font pas du tout) mais seulement dans une mesure limitée.

Mais des journalistes pratiquant ce journalisme de liens en réseau pourraient avoir une énorme influence sur la distribution des contenus sur le web – s’ils sont assez nombreux à participer, ils peuvent créer assez de trafic pour faire crasher les serveurs.

Nous avons créé Publish2 comme une plate-forme pour le journalisme de liens en réseau, pour donner aux journalistes et aux organes de presse le pouvoir en ligne qu’ils ont eu hors ligne – le pouvoir de distribution, le pouvoir de Google et Digg sur le web – un pouvoir qui contre ce modèle de monopole de distribution, et que les journalistes ne peuvent avoir que collectivement.

Rappelez vous la loi des réseaux sur le web – plus le réseau est grand, plus puissant il est.


Il y a là, pour Scott Karp, bien plus que le seul enjeu de “résoudre les problèmes endémiques de compétition (gaming) qui empoisonnent Digg et Google”. Il y a un coup à jouer pour les journalistes, et si ça ne marche pas… on tentera autre chose…

—-

Mise à jour (lundi 17h00) :

A propos du “journalisme de liens”

Je m’aperçois, à la lecture des commentaires, que je suis peut-être allé un peu vite, en brûlant les étapes : le projet Publish2, de Scott Karp, ne concerne qu’une forme très particulière de journalisme, peu connue et quasiment pas pratiquée en France : le “journalisme de liens” (“link journalism”).

Il ne s’agit pas de ce journalisme qui va chercher l’information à la source, mais d’un journalisme qui relève de la veille de l’information, et s’apparente plutôt à la revue de presse appliquée au web (par exemple Drudge Report, dont la totalité du contenu n’est formé que de liens externes. Il n’y a pas d’équivalent en France, à ma connaissance… Pour le moment… 😉 ).

Le projet de Scott Karp ne vise qu’à imaginer des outils coopératifs pour assurer une meilleure audience en ligne à cette forme de journalisme, en proposant aux journalistes qui le pratiquent de le faire de manière collective en partageant leurs liens collectivement avec le public, dans le cadre d’un réseau spécifique.

Je vais consacrer un billet spécifique au journalisme de liens, qui n’est pas du tout une nouveauté pour le web (les blogueus font ça toute la journée depuis longtemps ;-)), mais qui est une nouveauté pour le journalisme. Il n’y a qu’a voir la diffculté qu’ont les journalistes français et les sites de presse à placer des liens externes dans leurs articles, pour comprendre le chemin qui reste à faire, pour développer en France cette pratique… 😉

—-

Complément (dimanche 14h00) :

Sur Mikiane.com, Michel Lévy-Provençal présente le projet Zutopik, qui a des points communs et des différences avec Publish2 :

La démarche qui m’a amené a mettre en oeuvre Zutopik est similaire à celle des fondateurs de Publish2 (hasard et synchronicité…). A la différence, entre autre, que les journalistes ne seront pas les seuls éditeurs référencés sur Zutopik.org. Autre différence, Zutopik.org sera géré par une association à but non lucratif…


ZUTOPIK

View SlideShare presentation or Upload your own. (tags: open media)

28 Comments

  1. @ Florence

    Je n’ai peut-être pas assez bien mis en valeur ce qu’il y a de très intéressant dans le projet Publish2 pour que tu me parles de retour en arrière :

    Au lieu d’une agrégation automatisée des informations par des machines dont on ne connaît pas les algorithmes, ni qui les a conçus, ni pourquoi ni comment, il s’agit au contraire de profiter à plein des effets de réseaux permis par le web.

    Si les journalistes sont capables de forger un réseau humain et de mettre en concurrence leur production avec les réseaux agrégés par des machines : chacun reste juge et choisit le résultat qui lui convient.

    Mais on moins on réintroduit du choix et des humains là où règne pour le moment le monopole des machines… Et au moins les critères de choix sont mis sur la table : la vieille tradition des journalistes, remise au goût du jour, mais qui a le mérite d’être affichées, face à des algorithmes secrets…

    Ce projet pointe une très grande faiblesses des outils web 2.0 comme Google ou Digg : il y a bel et bien une politique rédactionnelle là-derrière (elle se situe dans la conception des algorithmes) mais elle reste secrète (pour des raisons de secret industriel) : ça ne convient pas du tout à ma vision de l’information.

    Puisque des choix rédactionnels sont faits dans la sélection des informations : on DOIT en connaître tous les tenants et les aboutissants. Tout système qui cache ses choix rédactionnels (c’est le cas de ces algorithmes secrets) est une menace.

    Qui plus est, Scott Karp l’évoque, mai on le sait tous : les systèmes automatisés sont encore plus facilement corruptibles que les humains, et les exemples de manipulation de Google et de Digg sont légion. On ne peut pas se reposer sur ce seul système : toute proposition pour briser ce monopole technologique est bienvenue… 🙂

  2. Donc si je suis bien l’élite (les journalistes) indiqueront ce qui est bien et ce qu’il faut lire. Retour au trafic d’influence tant décrié du temps du Monde.

    Ce n’est pas du Web 2.0 ni du Web 1.0 c’est du Web 0.0 ça !

    Et puis je propose que la prochaine tentative de bataille des élites sera de forcer Coca Cola à donner l’ingrédient secret qui fait que le coca est si bon ! Parce qu’il faut comprendre qu’on sait pas comment c’est fabriquer ça, ni par qui ni pour quoi.

    Je trouve ça très drôle !

  3. @ Abadinte

    Non, vous comprenez mal. Vous abordez ce projet en y projetant vos propres préjugé, ce qui vous conduit à le déformer complètement.

    L’élitisme, le contrôle ou le trafic d’influence ne sont que dans votre esprit et c’est vous qui le projetez sur tout ce que vous voyez. C’est votre regard qui est déformant.

    L’enjeu, qui – lui – ne doit pas rentrer dans votre cadre de pensée prédéfini, donc vous l’évacuez, c’est qu’il existe désormais sur le web un monopole de la distribution de l’information, entre les mains de quelques multinationales américaines (Google, Digg…). Ça s’appelle le Web. 2.0 🙂

    Moi, ce monopole me pose un problème, mais je vois que vous vous en accommodez très bien : vous n’aimez pas les élites, mais vous adorez les monopoles. :-))

    La réponse proposée par Scott Karp ne consiste en rien d’autre que tenter de remettre ce monopole en concurrence avec des réseaux d’humains fonctionnant sur un mode massivement coopératif, permis par les outils technologiques du web.

    Ensuite les gens choisissent, car il récupèrent une possibilité de choix. C’est aujourd’hui qu’il n’y a pas de choix, qu’il y a un contrôle, et un risque de trafic d’influence. Mais ça, vos oeillères semblent vous empêcher de l’appréhender…

    Si une proposition de sélection de l’information, réalisée par un réseau de journalistes partageant collectivement et publiquement les liens hypertextes qu’il relèvent sur le web ne vous intéressent pas : et bien allez voir ailleurs. C’est aussi simple que ça.

    Et libre à vous de constituer un autre réseau de ce type.

    Pour les autres : peut-être seront-ils intéressés de trouver des gens les aidant à défricher la jungle de l’information sur le web, et le faisant selon les standards du journalisme professionnel (des procédures de traitement de l’information transparentes et le respect d’une déontologie explicite).

    Pour résumer : ce que propose Scott Karp est exactement la transposition au journalisme du fonctionnement des réseaux de blogs : des réseaux humains basés sur la coopération volontaire, pour concurrencer l’agrégation automatisée, basée sur des algorithmes secrets, et sans aucune possibilité de contrôle des critères de tri qui sont utilisés.

    Je ne sais pas d’où vient VOTRE problème avec LES journalistes, mais je vous inviterai, SVP, à éviter ce genre de généralisation abusives ici. L’objet de ce blog est précisément de lutter contre l’uniformisation du journalisme, de l’appeler à l’ouverture, au dialogue, à plus de proximité et de modestie vis à vis de la société.

    Vous êtes tombé à la mauvaise adresse pour tenter de lancer ici un procès contre le complot des journalistes. Merci d’en tenir compte à l’avenir. 😉

  4. Je comprends mieux Narvic : merci d’avoir pris le temps de l’explication !

    Mais il va falloir aller plus loin car à première vue Publish 2 est STRICTEMENT réservé aux journalistes et les critères de fonctionnement ne me semblent pas très transparents…je suis d’accord sur la logique mais force est de constater qu’il y a un décalage entre les intentions et le processus affiché…certes le projet est en version béta, il a le temps d’évoluer…

    Pour ma part, j’aime travailler à construire du sens AVEC les journalistes et je fais confiance à certains d’entre eux : Francis Pisani fait partie de ces professionnels du journalisme que j’apprécie car il développe avec ses lecteurs ce type de relations constructives…même chose en ce qui vous concerne !

    La veille tradition des journalistes n’a pas seulement besoin d’être mis à la mode des réseaux : elle a besoin de changer en profondeur…La web 2.0 est porteur de changement de paradigmes forts…comme vous le préssentez, bien géré, le web 2.0 peut être l’opportunité de redonner du sens et de la valeur au métier de journaliste…et en ce qui me concerne; il me semble que ce métier pourrait prendre de la “hauteur”, de la valeur méta : il ne s’agit moins de produire du sens pour les autres que de les accompagner à en produire pour eux mêmes !

    Le Web 2.0 n’est qu’un outil…c’est ce que nous en faisons qui a de la valeur et notre responsabilité est engagée !

  5. @florence

    Il semble en effet que Publish 2 est STRICTEMENT réservé aux journalistes. Et oui les critères de fonctionnement ne semblent pas très transparents…

    Concernant Zutopik, je reçois pas mal de mail de gens qui s’interrogent sur le concept.

    Nous essayons de construire avec Zutopik, un réseau d’éditeurs indépendants, libres et propriétaires de leur sites et de leur contenus. Nous proposons une plateforme mutualisée offrant des outils d’agrégation, de publication, de cross linking…. On souhaite proposer la contruction d’un réseau de sites thématiques : des topiks sites.

    Chaque site est géré par un topik editor. Ce topik editor est propriétaire de son site. C’est un expert, un passioné, qui met ses connaissances aux services de la communauté pour devenir un “filtre humain” amplifiant les signaux faibles sur la thématique qu’il gère. La plateforme apporte ce qu’il y a de mieux en matière de gestion de contenu web et des outils ansi que des bonnes pratiques pour agréger et éditorialiser du contenu ou enrichir ses sources d’infos…Le tout sera etre référencé sur un portail géré par une association.

    La transparence est une des exigences premières du projet. Si vous voulez vous informer sur cette initiative expérimentale et pourquoi pas y participer c’est sur zutopik.org.

    Un post explicatif est dispo ici et un groupe Facebook a été créé pour l’occasion.

  6. Je suis conscient que le caractère de réseau “fermé” du projet Publish2 pose problème. J’attribue ça (ce n’est qu’un avis) au fait que le projet semble avoir une dimension professionnelle. Et puis il peut encore évoluer, puisqu’il n’est qu’en version “béta privée”…

    La démarche de Mikiane, avec le projet Zutopik, résout ce problème, en associant des acteurs différents… 😉

    Ce qui me semble essentiel dans ces deux projets : c’est la construction de communautés en ligne sur la base de coopérations volontaires et non d’agrégation automatisée.

    C’est ça qui me semble porteur d’avenir… 🙂

  7. @ Narvic,

    Je confirme ce que je dis. Le métier du journaliste est de trouver l’information, la développer puis de la hierarchiser et en éliminer ce qu’ils pensent être moins important. Là ce réseau de journalistes souhaitent faire de même sur les informations sur Internet. En résumé, ils souhaitent appliquer au nouveau média (qui a tout de même 20 ans) ce qu’ils faisaient sur les anciens médias.

    Leur réaction est légitime puisqu’ils n’ont plus le monopole de la hiérarchisation de l’information et sa diffusion. Ca leur pose problème et je le comprends tout à fait. Seulement, les tentatives précédentes d’utilisation des experts (ici les journalistes, autre part des experts sémantiques, des sociologues, des universitaires, des économistes etc…) pour hiérarchiser l’information ont toutes été vouées à l’échec : Altavista, Yahoo!, Voila!, Gopher, Excite, HotBot etc ont toutes échouées. Pourquoi ? Car la hiérarchisation par l’homme sera toujours plus imparfaite comparée à celle d’une machine dont l’algorithme fait par l’homme est largement plus performant.

    Par ailleurs, j’adore utiliser les mots justes (déformation universitaire). Google n’est pas et ne sera (certainement) jamais un monopole. C’est un quasi-monopole et plus certainement un dominant design. Je n’ai rien contre les élites contrairement à ce que vous pouvez penser. Je me moque juste ces personnes totalement larguées qui essaient de récupérer leur position dominante de hiérarchisation et diffusion de l’information sur Internet. Cette action est vouée à l’échec.

    Il faut dire que ce qui vous gêne encore et toujours c’est que Google ne donne pas son secret de fabrication. Je trouve ça aberrant. Mon exemple du Coca aussi bouffonnant qu’il soit est exactement le même. Vous êtes les petits mecs qui vont dire “je vais faire du coca et je vais publier la recette sur l’étiquette comme ça vous connaitrez les secrets de fabrication”. Vous ne voudriez pas non plus qu’ils mettent en ligne ce qui fait que leur outil est performant ou que Coca Cola est meilleur que le Mecca Coca? Cet algorithme est ce qui fait que Google est si performant. Pourquoi donc offrir cet avantage comparatif à ses concurrents? C’est totalement anti-concurrentiel pour le coup. On n’est pas dans un monde chrétien où Google va donner les armes pour se faire battre. Le monde de l’entreprise n’est pas un monde de bisounours. Mais au vu de vos critiques envers les différents outils de hiérarchisation (Google, Wikio, Digg, StumbleUpon, Delicious…), vous ne souhaitez en fait qu’une seule chose : créer une communauté homogène (dont la seule ressemblance est le métier) qui s’échangerait des liens hypertextes dans un réseau où les lecteurs pourront piocher les informations pertinentes. Donc vous sortez les internautes non journalistes du processus décisionnel et vous leur donnez le savoir. Vous souhaitez plus de modestie, de dialogue et d’ouverture entre journalistes et le reste du monde mais ce n’est pas ce que je ressens dans ce projet entrepreneurial. Alors peut-être as-tu mal développé le business model?

    Je le répète, je ne vois pas de complot des journalistes seulement un projet qui est voué à l’échec par un business model défaillant (ou mal expliqué) et surtout une raison initiale (se battre contre la technologie ) ubuesque au XXIème siècle.

  8. @ Abadinte

    Il est assez difficile de dialoguer avec vous, Abadinte, car vous procédez d’une manière qui n’y aide pas vraiment.

    Vous caricaturez les propos de ceux auxquels vous vous opposez (et d’ailleurs pourquoi faudrait-il s’opposer sur de tels sujets ?!?), vous accumulez les procès d’intention et les généralisations abusives à leur encontre, pour mieux asséner ensuite des arguments d’autorité (de votre propre autorité).

    C’est exactement ce que vous venez de faire ici-même à mon égard.

    Pour résumer : votre démarche est polémique.

    Ce n’est pas du tout la mienne sur ce blog. Je n’ai donc aucune intention de me lancer dans une bataille de chiffonnier, en relevant un par un tous les glissements que vous pratiquez sur mes propre propos pour mieux ensuite les disqualifier (sachez seulement que j’estime que vous ne répondez qu’à des arguments que vous me prêtez et qui ne sont nullement les miens. Vous ne répondez finalement qu’à vous-mêmes…).

    Contrairement à vous, ici on est sûr de rien et on doute de tout, surtout en ce qui concerne l’avenir. On tâche de rester curieux, attentif, ouvert à toutes les réflexions et à toutes les recherches, et on se garde de les condamner avant même qu’elles existent.

    Il existe d’autres espaces ouverts aux polémiques et à la rhétorique sur le web, je vous encourage le faire là-bas plutôt qu’ici.

  9. Aucune caricature dans mes propos, j’observe, je décortique, j’analyse, je pointe. Je vois que d’autres ont aussi pointé du doigt le même argument que moi : ce machin n’est pas du tout web 2.0 puisque ce sont des journalistes qui donnent l’information aux internautes. Où est la polémique?

    Depuis le temps que je vous vois sur les blogs vous n’avez qu’un mot à la bouche : celui du réactionnaire anti-technologie. Vous défendiez Embruns qui se barrait de wikio (parce qu’il ne comprenait pas comment ça fonctionnait), ici vous faites de même avec Google et Digg. On comprend pas donc c’est dangereux donc il faut inventer quelque chose d’autre. Toujours ce côté réactionnaire anti-technologique. Si au moins cette création d’entreprise était mué par un besoin (google fait mal son travail), pourquoi pas ! Et même bravo ! Mais là ce n’est sensiblement pas le cas.

    Ce qui est caricatural, c’est votre refus de débat et ce qui transpire à chaque fois de mes rencontres avec vos écrits : le refus technologique.

    Vous ne souhaitez pas répondre du fond de mes critiques? Ca ne m’étonne pas de vous.

    Sachez que je mange des cacahuètes et que je me délecte.

  10. @ Abadinte

    Vous êtes fatiguant à rechercher systématiquement la polémique : alors maintenant vous en venez aux accusations personnelles définitives sans aucune nuance. Je serais “réactionnaire anti-technologie”. 🙂 Normalement, à la prochaine étape, vous devriez passer à l’insulte… :o)

    On vois bien que votre problème n’est pas du tout ce billet et ce dont il parle, vous le reconnaissez d’ailleurs vous même : vous ne cherchez qu’un prétexte pour régler des comptes qui n’ont à voir ni avec ce billet, ni avec ce blog.

    Votre propos est tout simplement excessif, et comme tout ce qui est excessif, il est insignifiant. Vous liriez ce blog, vous sauriez bien que je ne suis ni anti-technologie, ni réactionnaire. Mais je ne crois pas non plus que la technologie va régler tous les problèmes, en particulier ceux qu’elle pose elle-même.

    Je vous invite à y réfléchir plutôt qu’à répondre systématiquement que ceux qui apportent des critiques n’y comprennent rien (contrairement à vous bien entendu) et veulent donc forcément revenir en arrière. Je vous demande juste un petit peu de mesure et de recul… 😉

    Pour l’anecdote, si j’en crois votre âge, je crois bien que j’ai commencé à travailler sur un ordinateur avant que vous ne soyez né, et je m’intéresse de près aux nouvelles technologies de l’information et de la communication depuis tout ce temps. 🙂

    Vous vous décrivez sur votre blog comme “ouvert sur le monde”. Faites dont un peu preuve d’ouverture… Commencez par accepter ceux qui ne sont pas de votre avis et avancent une petite objection à ce que vous croyez sans recul, et ne sortez pas aussitôt vos grands mots épouvantails : “réactionnaire anti-technologie”. C’est puéril.

    Alors que vous répondre ?

    Que l’intérêt de ce projet, tout comme celui proposé par Mikiane, est de rechercher des solutions nouvelles de sélection et de hiérarchisation de l’information en ligne, utilisant les ressources technologiques d’internet pour organiser des réseaux massivement coopératifs.

    De tels types de projets posent très probablement eux-aussi des problèmes. Ce n’est sûrement pas une raison pour les discréditer d’avance, par principe, avant même qu’ils n’existent…

    La recherche de nouvelles voies pour gérer la distribution de l’information en ligne est d’autant plus importante que les solutions d’agrégation automatisées basées sur des algorithmes de popularité présentent des défauts et des dangers, déjà bien visibles quant à eux : elles manquent de pertinence, de transparence, de pluralité et de fiabilité (elles sont aisément manipulables). Tous ceux qui pointent les défauts de Google et de Digg doivent-ils donc être aussitôt excommuniés comme vous le faites ? Ces défauts et ces insuffisances sont pourtant bien connus et dénoncés par nombre de gens de part le net, me semble-t-il… 😉

    Quant au fait qu’un projet porte ou pas le label web 2.0, votre naïveté m’amuse. Je me contrefous totalement de ce label web 2.0, qui n’est qu’une invention marketing, et dont personne n’a jamais réussi à donner une définition précise. Vous vous laissez prendre à ce piège, ça vous regarde.

    Le web n’a sûrement pas brutalement changé de nature un beau jour en passant à sa version 2.0 parce qu’un gourou l’a décrété dans la Silicon Valley. La convergence des industries de l’informatique, des télécommunication et celles de la culture et de l’information est engagée depuis bien plus de trente ans. Internet n’en est qu’une des résultantes, et internet continue d’évoluer, de manière discontinue, voire disparate, avec des succès et des impasses… Je fais partie de ceux qui contestent qu’une telle “rupture” ait réellement eu lieu autour de l’année 2000, et qui justifierait qu’ont soit tout d’un coup passé dans une nouvelle ère. Non, ça c’est du marketing.

    Vous êtes sûrement trop jeunes pour mesurer le nombre d’inventions géniales portées au pinacle un moment par des technophiles trop exaltés, et qui encombrent aujourd’hui les poubelles de l’histoire des NTIC. 🙂

  11. Narvic,

    “réactionnaire anti-technologie” c’est l’impression que vous me faites au fur et à mesure que je vous lis. Peut-être que je me trompe… Je l’espère.

    L’insulte ne fait que rarement partie de mon vocabulaire, je ne le réserve qu’aux insupportables cons. Vous ne me semblez pas être con. D’ailleurs sachez que je lis votre blog depuis quelques mois déjà.

    A mes yeux, Publish2 n’apportera aucune valeur. Il est l’exacte réplique des moteurs de recherche ancienne génération. A savoir des experts hiérarchisent l’information. Le projet de Mikiane a certainement plus de chances d’aboutir. Certainement parce que Mikiane a déjà une communauté autour de lui et que son modèle n’est pas fermé.

    Vous avez raison sur la dénonciation des défauts des outils technologiques que sont Digg et Wikio. Ils sont facilement manipulables. D’ailleurs, Pierre Chappaz va lancer un mouvement de réflexion pour améliorer son outils. J’ai proposé mes services pour les aider dans cette tâche. Par contre, j’émets de sérieux doutes sur la facilité de manipuler Google. Puisque vous êtes sur les NTIC depuis longtemps vous devriez savoir que l’algorithme est assez complexe pour que la manipulation soit délicate. Et ceux qui se font attraper sont mis au pilori. Par exemple, Netbooster, spécialiste SEO, a été déférencé ainsi que BMW. Mais peut etre avez-vous des exemples qui me feront changer d’avis. Je suis un jeune adepte de l’Internet. Ca ne fait que 12 ans que je suis dessus.

    Les sites que vous mettez en exergue sont selon votre définition « le journalisme de liens en réseau ». Le réseau, la communauté sont des éléments intrinsèques du 2e web. Alors en effet, il n’y a pas de définition précise du web 2.0. Je considère pour ma part le web 2.0 comme la compréhension par les acteurs du web de l’entité “internaute” dans leur business model. Ce n’est pas révolutionnaire, c’est juste que les marketeurs avaient oublié qu’il faut des acheteurs (soit les internautes) pour vendre leurs produits. Et c’est pourquoi il y a ce développement des communautés et réseaux afin de mieux comprendre les internautes (qui sont de facto différents des consommateurs avant Internet).

  12. @ Abadinte

    Heureux de voir qu’on peut en arriver à échanger des arguments normalement et simplement, sans virer au dénigrement (“vous n’y connaissez rien”), à l’accusation (“vous n’êtes qu’un réactionnaire”) et au règlement de compte (“Depuis le temps que je vous vois sur les blogs”)…

    Sur Publish2 comme Zutopik : le caractère intéressant des deux projets, ce qu’ils ont en commun, c’est ça qui m’intéresse et c’est ce en quoi ils sont nouveaux (malgré des différences par ailleurs).

    Il s’agit de systèmes de recommandation (comme Digg et les Digg-like), mais au contraire des Digg-like automatisés, ouverts à tous, et plaçant tous les avis sur un même plan (c’est à dire que le bassin de “votants” est indistinct et non qualifié), le bassin de votant est ici formé d’une communauté volontairement constituée, selon les critères qu’elle a définis et qu’elle affiche, sur un mode coopératif.

    A partir de là on est d’accord avec les critères de constitution de la communauté ou pas. On adhère, ou pas. Ça c’est le problème de chacun. Une communauté de journalistes (Publish2) ne vous intéresse pas : ça n’est pas grave. Vous préférez une communauté d'”experts et de passionnés” (Zutopik”), vous l’avez aussi !

    Et on peut imaginer toutes les communautés que l’on veut sur ce même principe. L’important est que l’on sait qui vote. C’est tout le contraire de Digg. Une communauté présente des garanties de transparence et de régulation que l’on ne trouve pas dans un système entièrement automatisé.

    Sur ce point je suis donc en désaccord avec vous : Publish2 ne ressemble à rien de ce qui existe pour le moment. Ce projet a de nombreux “gènes” en commun avec Zutopik (et avec quelques autres qui sont actuellement dans les cartons)… Comme quoi c’est peut-être plutôt ça l’avenir que la multiplication des digg-like impersonnels et anonymes…

    Sur les manipulations de Google : vous les connaissez aussi bien que moi. Ça s’appelle Google bombing pour les cas les plus spectaculaires, et ça s’appelle le référencement “non-naturel” pour tous les autres.

    Le développement même d’une industrie de l’optimisation du référencement n’est rien d’autre que l’industrialisation de la manipulation commerciale des résultats de Google. C’est un problème potentiellement mortel pour Google. Ça porte en tout cas un profond discrédit sur les résultats affichés par Google : les mieux placés sont ceux pour lesquels on a dépensé de l’argent en SEO, pas ceux qui correspondent avec pertinence à la recherche effectuée.

    La meilleure preuve en est wikio : il est fréquent qu’un billet de blog soit moins bien référencé par Google que la référence de ce billet lui-même dans wikio, qui apparaît devant dans les pages de Google. Si ça n’est pas une preuve que le référencement de Google est non pertinent ! Et qu’il peut être très facilement manipulé par des astuces de référencement !!

    Le réseau est le principe même d’internet, comme son nom l’indique : internet = interconnection des networks, càd… des réseaux.

    Les communautés et le caractère social et relationnel sont des éléments intrinsèques d’internet lui-même. Tout cela existait et prospérait bien avant le web, donc a fortiori avant un quelconque Web 2.0…

    C’est un abus total de prétendre que les communautés en ligne ne seraient apparues qu’après l’an 2000. Et quid des outils qui permettent la constitution de communautés vivantes depuis les tout débuts d’internet : mailing-list, usenet et autres groupes de discussion, toutes les formes de tchat non-web qui ont été inventées, y compris vidéo (j’ai encore une nostalgie pour les communautés CU-SeeMe… 😉 )

    Alors en effet : vous faites bien de ramener cette idée de Web 2.0 à une notion purement commerciale et marketing. Il n’y a aucune technologie fondamentalement nouvelle là-dedans, ni aucune réalité sociale qui n’était pas déjà là auparavant. Aucune.

    J’irais même jusqu’à dire qu’il s’agit d’un “coup marketing”, conçu et promu pour redorer le blason des start-up de la Silicon Valley au yeux des investisseurs après le grand crash des valeurs du Nasdaq à la fin des années 90 (l’éclatement de la “bulle” internet).

    C’est une opération purement publicitaire. Elle est devenue une opération idéologique quand des gogos ont commencé à croire sincèrement le discours du marketing et de la publicité, sur un avenir meilleurs et tout et tout, par la seule grâce messianique de ces technologies. Pur attrape-nigaud…

    Quand au “journalisme de liens”, c’est une grande nouveauté également, que l’on ne connaît pour le moment quasiment pas encore en France, tellement les journalistes français sont réticents à placer des liens externes dans leurs articles.

    Alors allez jusqu’à faire des articles uniquement formés de liens ! Pour le moment en France, il n’y a que des blogueurs qui font ça (notamment des journalistes blogueurs 😉 ), mais on ne voit ça dans aucun média.

    Le journalisme de lien, ce n’est rien d’autre qu’un journalisme de veille de l’information au service de ses lecteurs. Exactement comme le font les blogueurs spécialisés dans leur domaine. Ce n’est pas une révolution pour le web, mais c’est une révolution pour le journalisme !

    On verra bien s’il y a un public intéressé par ce service (vous, j’ai compris que votre problème avec les journalistes est plus personnel et affectif qu’autre chose, et n’est pas fondamentalement très étayé). S’il y a des gens qui sont intéressé et qui y trouvent leur compte : qu’est-ce que ça peut bien vous foutre ?

  13. Abadinte : « Il faut dire que ce qui vous gêne encore et toujours c’est que Google ne donne pas son secret de fabrication. Je trouve ça aberrant. Mon exemple du Coca aussi bouffonnant qu’il soit est exactement le même. Vous êtes les petits mecs qui vont dire « je vais faire du coca et je vais publier la recette sur l’étiquette comme ça vous connaitrez les secrets de fabrication ». Vous ne voudriez pas non plus qu’ils mettent en ligne ce qui fait que leur outil est performant ou que Coca Cola est meilleur que le Mecca Coca ? Cet algorithme est ce qui fait que Google est si performant. Pourquoi donc offrir cet avantage comparatif à ses concurrents ? C’est totalement anti-concurrentiel pour le coup. On n’est pas dans un monde chrétien où Google va donner les armes pour se faire battre. Le monde de l’entreprise n’est pas un monde de bisounours. Mais au vu de vos critiques envers les différents outils de hiérarchisation (Google, Wikio, Digg, StumbleUpon, Delicious…), vous ne souhaitez en fait qu’une seule chose : créer une communauté homogène (dont la seule ressemblance est le métier) qui s’échangerait des liens hypertextes dans un réseau où les lecteurs pourront piocher les informations pertinentes. Donc vous sortez les internautes non journalistes du processus décisionnel et vous leur donnez le savoir. Vous souhaitez plus de modestie, de dialogue et d’ouverture entre journalistes et le reste du monde mais ce n’est pas ce que je ressens dans ce projet entrepreneurial. Alors peut-être as-tu mal développé le business model ? »

    Abadinte il y a plein d’entreprises qui fonctionnent selon ce système dans le domaine de l’informatique : http://www.gnu.org/philosophy/free-sw.fr.html
    C’est justement très sain pour la concurrence.

  14. Ok là on entre dans ce qui est vraiment intéressant soit la critique du mode de fonctionnement des Diig-like.

    L’objectif serait d’avoir plus de qualitatif donc des statistiques plus détaillées sur les profils ayant mis en avant tel lien. C’est clairement ce qui manque aux digg-like. L’utilisateur devrait donner ses centres d’intérêts, son métier, son industrie, des réponses à un questionnaire etc… ( voire de lier le digg like avec son profil Facebook, Linkedin, Viadeo, Xing, Ziki, OpenID…).

    J’avais lu il y a quelques temps un article sur un blog (qu’il faudrait que je retrouve) faisant le parallèle entre une boutique offline et une boutique online. L’entrepreneur annonçait que la grande différence entre le online et le offline est que la visibilité offline s’achetait avant l’établissement de la boutique (soit l’achat d’un emplacement sur les Champs-Elysées oud ans un centre commercial bien en vu) tandis que la visibilité online s’achetait avant et durant l’utilisation de la boutique par l’optimisation du site Internet et le référencement naturel par la suite et payant. Pour le journaliste ou le blogueur, la problématique est la même : rechercher les bons moyens de se référencer. J’avoue qu’il est plus facile de laisser son optimisation à une entreprise spécialisée comme moi (soit canalblog) que de le faire soi-même ( sous dotclear ou wordpress). Mais avoir un site de qualité est une condition sine qua none d’avoir une information qui passe bien. Le bon journaliste ou blogueur doit avoir un site optimisé. Et donc adieu widget, URL loufoques, lignes de code baroques… L’amateur doit se professionnaliser. Mais en effet, ça pose un problème. Les sites s’unifient sous l’égide du modèle des moteurs de recherche.

    Pour les communautés, oui je suis certainement allé très vite là-dessus. J’ai commencé par l’IRC donc en effet ça date. Mais quels progrès tout de même ont été menés depuis ces interfaces grises qui se déconnectaient tout le temps ! On ne peut pas dire qu’il y a eu de changement radical mais une véritable prise en compte du cluestrain manifesto (http://www.cluetrain.com/manifeste.html).

    Je ne sais pas si le journalisme de liens est une nouveauté mais je le fais de temps en temps. Et nombreux sont les blogueurs qui le font spontanément. Eric de la Crise dans les médias, Richard Ying, GuiM, … Enfin comme souvent les professionnels un peu partout quand ils sont conservateurs ont du mal à s’adapter aux nouvelles règles de bienséance. Journalistes ou pas.

    Mon problème avec les journalistes est plus une question qualitative qu’affective. En gros, je trouve que les journalistes (dans mon secteur d’expertise) se contentent trop souvent de reprendre les communiqués de presse ou les dépêches AFP, de ne faire pas assez de journalisme d’investigation (et sans que ce soit risqué hein, lire des textes et les analyser n’est pas la mer à boire, je ne parle pas d’aller en Ossétie du Sud se faire tirer dessus), de faire trop peu de recoupement d’information et de chercher la facilité (à savoir les petites phrases) plutôt que les idées (d’où le déficit d’appréciation des Français envers les politiques). Mais ce n’est pas vraiment le lieu du débat ici.

    Bob, le libre n’est pas le modèle de développement de google. Et quand on voit le moteur de recherche libre, je pouffe. http://search.debian.org/ 😉

  15. @ Bob

    D’autant que Google s’est énormément appuyé sur la communauté Open source pour son propre développement. 😉

  16. @ Abadinte

    Sur Google et l’Open Source : vous connaissez mal la question. Le modèle de développement de Google est – précisément !- intrinsèquement lié à la communauté Open source. Ce qui conduit certains à parler même “des origines mixtes de Google entre l’Open source et la recherche à but lucratif” (Ippolita, “La face cachée de Google”).

    Il lui est même reproché de ne pas jouer le jeu de L’open source de manière loyale : “exploiter les potentialités et les réalisations de la méthode de développement ouvert, sans cependant faire partager ses développements et ses améliorations” (id.)

    Quoiqu’il en soit, une part très importante des technologies utilisées par Google relèvent de l’Open source, et c’est souvent Google lui-même qui en a suscité le développement dans ce cadre.

    Sur les digg-like : le problème est en effet que la commmunauté des utilisateurs est indistincte et non-qualifiée. Dans le résultat, un expert ou un passionné comptent autant qu’un simple passant.

    Alors il y a en effet deux options : mieux qualifier les utilisateurs par le profilage, et trouver des algorithmes satisfaisants de pondération des votes en fonction des critères retenus. Ce bricolage va demander beaucoup de temps de mise au point avant de trouver un équilibre qui ait une quelconque pertinence.

    L’autre option est beaucoup plus simple, rapide et efficace : former d’abord une communautés qualifiée sur des critères pertinents et affichés. C’est, à mon sens, la grande supériorité des démarches Publish2/Zutopik sur les Digg-like… 😉

    La question du référencement est cruciale : le développement d’une compétition au référencement entre les producteurs de contenus est en train de devenir contre-productive et parasitaire. L’énergie (et les moyens techniques et financiers) développés dans le référencement se font au détriment de la production des contenus.

    L’apparition de professionnels spécialisés dans le référencement est en train de vicier le système en profondeur et attaque sa pertinence.

    On est en train de voir les limites de ce système. C’est pas pour rien que les plus clairvoyants sont attentifs à toutes les alternatives qui peuvent être proposées ! 🙂

  17. > Bob, le libre n’est pas le modèle de développement de google.

    Me souviens pas d’avoir parler de Google comme modèle pour le libre. Mais si tu veux parler d’eux ils réalisent quelques projets libres comme Android, possède une forge http://code.google.com, et organise un des concours les plus populaire le Summer Of Code, qui permet de faire émerger des nouveaux talents/ de nouveaux projets très intéressants.
    Je faisais plutôt référence à Red Hat, Canonical, Wikimedia, Sun, Novell, Mozilla Fondation. Plein de boites qui ont vu un intérêt certain à partager leurs secrets de fabrication.

    > Et quand on voit le moteur de recherche libre, je pouffe. http://search.debian.org/

    Euh c’est un moteur de recherche interne au site de Debian, je ne vois pas trop ce que ça vient faire là-dedans. Et Debian n’est pas le monde libre non plus.

  18. Bonjour,

    Le titre est révélateur d’un état d’esprit, tout de même : “contrer”, c’est “réagir”, on est loin de l’initiative.
    Et on accepte implicitement les règles établies par l’adversaire (audimat, rentabilité …) : c’est mal barré question révolution et en tout cas il n’y a pas de rupture par rapport à ce qui existe comme modèle économique.
    Ce n’est pas très créatif, tout ça …
    Je dirais que c’est une séquelle attendue : les mêmes infos mais triées autrement. Enthousiasmant, vraiment …

    Le choix des cibles ensuite : c’est partir à la chasse au mammouth et au rémora, ça témoigne soit d’une ambition téméraire soit d’une faim désespérée.
    La force décuplée des perdants (Bashung) passerait-elle enfin par la tentation communautaire ?
    Qu’on se rassure, ce n’est pas le stade ultime : ensuite, il reste la possibilité de payer pour bosser.

    Enfin-bon, ce billet m’a permis de découvrir Zutopik, c’est une bestiole de plus à placer sous l’oculaire et elle a l’air sympa.

    Sinon, au sujet de votre
    “L’apparition de professionnels spécialisés dans le référencement est en train de vicier le système en profondeur et attaque sa pertinence.”

    Les référenceurs étaient déjà là au millénaire dernier et le référencement est devenu une discipline enseignée à l’université.
    Mais c’est clair que l’argent investi là ne l’est pas dans le contenu. En même temps, à quoi sert un contenu invisible ?

  19. @ Szarah

    Une réaction, en effet, plutôt qu’une initiative…

    Mais une réaction saine tout de même ! C’est enfin tenter d’aller jouer la partie sur le bon terrain… 😉

    Et puis ça me paraît intéressant de pousser les recherches et les expériences du côté de la coopération, plutôt que dans celui de l’agrégation automatisée…

    Après, ça donnera ce que ça donnera… Mais si on n’a pas cherché, on réduit les chances de trouver… 🙂

  20. Bon, je ne suis pas un spécialiste de l’open source mais je suis étonné d’entendre dire que Google est basé sur ce modèle. Je vais m’y pencher.

    L’option “avoir déjà une communauté” pose problème. Quelle taille au préalable ? Quelle taille critique ? Si l’outil est fermé, comment faire face au désappointement de ne pouvoir y participer ? Et puis j’ai une question toute conne, comment font-ils ces journalistes, experts, internautes pour trouver ces informations au commencement?

    Je n’ai pas le même regard critique que toi sur les référenceurs. Les référenceurs sont les publicitaires online, ils offrent de la visibilité. C’est un moyen de se faire pour transformer ses objectifs. Alors bien entendu, l’argent dépensé est mirobolant et pourrait être utilisé à meilleur escient. Mais c’est leur moyen d’être visible (comme la boutique sur les Champs pour le offline)

  21. 1- Les référenceurs : publicitaires du net ?

    Aucun référenceur ne peut garantir à son client des retombées d’une campagne.

    Les publicitaires offline, eux, peuvent le faire.

    Remettons à sa place le travail du référenceur dont l’objectif ultime est de faire figurer un lien vers le site de son client dans les 3 premiers résultats retournés par google sur une requête précise.
    Ce travail est basé sur le mensonge en employant des méthodes “border line” qui enlèvent de la pertinence aux requêtes, aux fins de leurrer les moteurs de recherche.

    Mais heureusement, google s’améliore tous les jours et met progressivement fin à leurs méthodes.

    2- Regroupement de journalistes en réseau (thème de l’article)

    Pour travailler sur le sujet, je peux vous assurer que cela ne suffit pas.

    Recréer le même microcosme qui vise de facto à exclure les autres vrais journalistes que sont les blogueurs, même s’ils n’ont pas de carte de presse est mauvais pour l’audience à moyen terme.

    Sur ce modèle, Mediapart court à la faillite.

    3- Le modèle économique

    Se regrouper pour publier ensemble, c’est bien joli, mais encore faut-il pouvoir en vivre, alors comment financer ?
    La presse papier le veut-elle ?
    Elle qui freine des 4 fers, attachée par son boulet qui se nomme “ventes papier” ?

    Seuls des “pure player” pourront tirer leur épingle du jeu.

    C’est une des clés de la solution.

  22. J’aurais peut-être dû commencer par là :

    Le projet Publish2 ne concerne qu’une forme très particulière de journalisme : le journalisme de liens.

    Il ne s’agit pas de se regrouper pour publier. Il s’agit – uniquement pour les journalistes qui pratiquent cette forme de journalisme – de mettre en commun des liens hypertexte.

    Cette notion de journalisme de liens (“link journalism”) est encore très peu connue, discutée et surtout… pratiquée en France.

    Je vais remettre les choses dans l’ordre : faire un billet sur le journalisme de liens, et on reviendra ensuite aux possibilité ouvertes par Scott Karp, pour qui il ne s’agit d’améliorer l’audience et l’impact de ce journalisme-là.

  23. J’ai rajouté un passage en fin de texte sur le “journalisme de liens”.

    Avec… un lien ( 😉 ) vers le Drudge Report, un très bonne exemple de cette pratique qui n’a pas encore cours dans les médias en France, même si elle est courante dans les blogs…

  24. Bon, malgré cette débauche de technology bashing et technology counter-bashing.

    Je peux poser une question pratique qui me turlupine ?

    Un journaliste fait un article avec des liens de références vers des blogs d’expert.
    La démarche est faite à la main, comme vous le préconisez,
    Maintenant, moi en tant que lecteur, je découvre dans son article un ou deux liens intéressant vers des blogs d’experts que je ne connaissais pas.

    En tant qu’utilisateur pas trop con, quelle est ma réaction ?
    Je m’abonne tout de suite dans mon google reader aux blogs d’experts cités.

    Et donc à la fin, je m’abonne directement aux analyses sources que je juge intéressante (généralement pas pour les mêmes raisons que le journaliste initial).

    Le même mécanisme s’opère, l’expert dépassera toujours le journaliste en préciosité de l’analyse, et ceci dans n’importe quel modèle Web.
    Car la singularité de l’analyse de l’info conduira forcément aux experts.

    Par n’importe quel bout qu’on peut prendre le truc, la désintermédiation est en cours.
    En revanche, je vois une très très belle période, féconde pour le journalisme en local.

    Et les grands reporters, ceux qui s’obstinent sur le terrain pour prendre des risques, seront toujours là, malgré ce qu’on peut en dire.

    C’est plutôt le journalisme d’opinion et généraliste qui va en prendre un coup, car de cela, tout le monde peut faire sa sauce avec des sources diverses sur Internet, à moins d’être un méga-expert.

    petit P.S. : euh, je ne vois pas pas pourquoi Google serait Web 2.0 .
    Google prééxistait et était populaire bien avant l’invention du terme Web 2.0.

  25. Proxiti,

    Où ai-je parlé de ROI? Je n’ai parlé que de visibilité chose absolument différente du ROI. Par ailleurs, les référenceurs ne sont pas hors-la-loi sinon je me demande pourquoi Google délivre des diplomes de référenceur !

  26. @Abadinte
    Il n’y a pas a priori de “secret de fabrication” pulvérisant la concurrence chez Google.

    Globalement on sait où Google est aller chercher, à l’origine, la pertinence : sur les liens pointants entre site fonctionnant comme un système de vote.
    Après il y a surement de dizaines de correctifs et d’inventions pour améliorer l’idée de base de Larry Page ou bloquer ceux qui abusent ou ont abusé du système.

    La puissance de Google n’est déjà plus là, car la possession d’un algorithme supérieur, se heurterait à une différence d’application radicale dans la pratique.

    La puissance actuelle de Google se situe dans deux éléments :
    Premièrement, l’étendue de l’indexation qui conditionne la vitesse du taux de réponse : cela ne peut pas être réalisé par une base de donnée conventionnelle (par exemple Oracle est incapable de faire cela) il s’agit en fait d’un système de fichier distribué sur des dizaine de milliers d’ordinateurs dans des data center et qui réagit comme un seul et même disque dur.
    C’est un truc très bien conçu. Il suffit qu’il rajoutent des racks avec leurs linux configurés spécialement, pour qu’ils s’intègrent automatiquement au système de fichiers distribué et l’étendent.

    C’est ce qui leur permet des temps de réponses phénoménaux et une plus grande réactivité dans le suivi des changements du Web que leurs concurrents.

    Par exemple, si tu as essayé d’inscrire ton site à Yahoo, Live Search et Google, bah tu verras quelques jours plus tard ton signalement de site pris en compte par Google, mais Yahoo et Live Search, généralement aux abonnés absents.

    Même si la technologie est surement reproductible, il y a à présent un écart tel de puissance au niveau de l’investissement matériel et technologique qu’il n’existe même pas sur le marché de Google de “Pepsi” comme il y a sur le marché de “Coca”.

    C’est pour cela que lorsque la Bibliothèque Nationale de France annonce sa propre base de données en ligne pour les livres qu’elle a à charge, cela fait pouffer tout le monde de rire, car on sait très bien que le système informatique ne sera pas à ce niveau et sera sous-dimensionné à la base : la différence se fera entre 1/10me de seconde pour afficher la page (Google) et au mieux quelques secondes pour la base de la BNF. Mais même, les deux sites ne pourront jouer dans la même cour avec un nombre d’utilisateur potentiel en accès simultané.

    2) le deuxième effet “Kiss Cool” est que Google, du à son pouvoir d’attraction, attire pratiquement les meilleurs de la profession, et grâce à des initiatives Opensource comme le Summer of code, peut recruter chez les plus brillants des jeunes codeurs ou mathématiciens, qui ne se font pas prier pour intégrer une boîte “cool” où on mange gratuitement toutes les cuisines du monde et où on peut venir coder en jean/baskets.

    Il y a quelques années Microsoft a vu partir quelques uns de ses plus brillants technologistes et définitivement.

    C’est l’une des pierres d’achoppement de la force de Google, la mise en avant de la technologie à tous les niveaux.
    Par exemple, ils ont déjà acquis pour leurs data centers, beaucoup d’expérience dans les économies d’énergie électrique.

    Et ils se diversifient à présent dans des projets technos à vocation écologiques, comme la conception d’une centrale électrique utilisant les énergies renouvelables, capable de fournir une ville comme Los Angeles, mais à un coût (évidemment) inférieur aux énergies à émission carbone.

    Ils viennent aussi d’investir dans deux jeunes boîtes, l’une concevant des batteries électriques plus performantes, l’autre ayant conçu un modèle de voiture en fibre de carbone, consommant 1l/100.

    C’est pour ces raisons que je ne vois pas de concurrence dans l’affaire de narvic, car Google traite des problèmes informationnels à une autre échelle,
    Il faut réaliser que l’objectifs dont on cause est l’ensemble des blogs, journaux, sites, livres de la planète.

    En résumé, vu de Google, on ne fait pas une obsession sur les journalistes, mais vu de la corporation, les journalistes français font surement une obsession sur Google.
    Il s’agit en fait de domaines qui ne soutiennent pas la comparaison.

    Il faudrait plutôt que les journalistes se focalisent sur une compétition au niveau qualité avec des réseaux ou des sites à taille humaine, pour que cela ait un sens.
    Par exemple, concernant les informations internationales, qu’est ce que les journalistes ou spécialistes de l’info en France peuvent opposer au niveau qualité à un réseau tel que celui où intervient Chomsky, Fisk, Naomi Klein, etc. qui s’appelle “znet”.
    Pour l’instant, mon jugement est qu’il n’y a pas photo.

    Le site de “znet” est plutôt en Web 1.0, mais il ya un suivi de qualité très informé et bien supérieur à ce que fournit l’ensemble des rédactions françaises par aggrégateur Google.

Comments are closed.