sur le web

Google, le TF1 du net : distributeur de programme plus que moteur de recherche (MàJ)

—-
Mise à jour (lundi 8 septembre 2008) :

Titre modifié (titre initial : “Quand Google est le nouveau TF1 du net, mon lecteur RSS devient mon navigateur web“) et billet complété, à la suite de la présentation d’une très intéressante étude sur la pratique des usagers de Google, signalée aujourd’hui par Fred Cavazza, et qui m’inspire quelques réflexions…

—-

Le lancement de Google Chrome, le navigateur internet pour Windows de Google, fait couler beaucoup d’encre numérique. Une remarque très intéressante de Cratyle me donne à réflechir :

(noir)“La fonctionnalité de suggestion d’adresse (…) – à mon avis le point clé de Chrome – renforcée par les fonctionnalités historique et favori (…) permettent à Google d’espérer canaliser l’ensemble des déplacements du Web. (…) Le Web que tu parcourras sera le Web que Google (ou plutôt ses algorythmes) aura organisé pour toi.”

(/noir)

Google comme navigateur universel du net ? Peut-être bien pour certains, pour la majorité même, mais je ne me crois pas personnellement concerné par cet avenir.

La logique de développement de média de masse grand public de Google le pousse à devenir le TF1 du web. Je suis à la recherche d’un outil plus subtile. Fort heureusement, il y en a. On peut même se les construire soi-même… 🙂

Je ne me sens pas concerné par cette affaire, d’une part car Google (et les moteurs de recherche en général) ne sont plus aujourd’hui mon principal outil de recherche en ligne. Pour des raisons d’efficacité de la recherche, c’est à dire de rapidité et de pertinence, j’ai trouvé mieux en me forgeant mes propres outils de veille (lire sur novövision : “Trouver l’info en ligne : des stratégies de recherche sociales qui font mieux que google”).

D’autre part, la fusion du moteur de recherche et du navigateur internet (Google Chrome en l’occurrence, dans la perspective de Cratyle) ne me concerne pas plus, car mon outil principal de navigation n’est plus aujourd’hui mon “navigateur” : la fonction de navigation s’est déplacée pour l’essentiel dans mon lecteur de flux RSS (Vienna). Mon “navigateur” (Safari) n’est plus guère qu’un “afficheur de pages”.

Aujourd’hui le web est trop grand, je ne navigue plus sur le web. Je pré-sectionne, je trie avant, grâce aux outils de veille que je me suis forgés moi-même grâce à mes “stratégies de recherche sociales” et les résultats tombent directement dans mon lecteur de flux RSS.

C’est pour cela que j’ai opté pour un lecteur de flux autonome, plutôt qu’un agrégateur en ligne du type Netvibes ou Google Reader. Vienna m’offre une souplesse dans l’organisation de ma veille que je ne retrouve pas ailleurs : avec de multiples classements des flux, par dossiers et sous dossiers, certains se recoupant. Tout cela me permet de hiérarchiser ma lecture des flux de manière fine, selon les jours et le temps que j’ai à consacrer à ma navigation : cette lecture des flux sélectionnés est déjà, en soi, une navigation. Mon lecteur de flux RSS est devenu mon navigateur.

Alors Google Chrome n’est tellement pas orienté dans le sens que je recherche qu’il n’offre même pas la possibilité de lire aujourd’hui (dans sa version béta) les flux RSS. Il n’a vraiment rien pour me séduire. Il ne m’intéresse même pas.

De toute façon, sa première version n’a été diffusée qu’en version Windows… Même s’il m’avait intéressé, je n’y aurais même pas eu accès (puisque je suis sous Mac OS 😉 ).

Google confirme sa vocation à n’être qu’un outil grand public pour un usage très basique. Il cherche bien plus à élargir son emprise qu’à améliorer ma satisfaction d’utilisateur. La vision du web qu’il renvoie se rapproche finalement beaucoup de celle des médias de masse : service minimum pour audience maximum. Google, c’est le TF1 du web. Moi je regarde plutôt France 5 et Arte… :-))

—-

Complément (8 septembre 2008) :

Google, un programmateur de médias plus qu’un outil de recherche ?

Fred Cavazza signale aujourd’hui une étude menée par Think Eyetracking : Has Google gotten better? :

“Vers des comportements de recherche extrêmes ?”

Cette étude retrace les comportements des utilisateurs sur la première pages de résultats de recherche de Google, et je suis franchement tenté de l’interpréter dans le sens de ce billet, et du parallèle Google/TF1.

Cette méthode d’étude observe où se pose le regard de l’utilisateur sur la page avant le clic : plus la couleur se refroidit (passant du rouge au jaune, puis au vert) moins la zone est regardée.

Fred Cavazza relève :

(noir)Hé oui, l’attention est maintenant fortement concentrée sur les trois premiers résultats (et non plus les 5 comme c’était le cas d’une précédente étude menée en 2005).

(/noir)

L’interprétation de l’étude par Think Eyetracking conclut à une optimisation de la recherche par les utilisateurs de Google, qui chercheraient mieux, car ils auraient appris à utiliser l’outil.

Cette conclusion est tirée de l’étude sur le nombre de résultats sur lesquels se porte le regard avant le premier clic. Aujourd’hui, bien plus qu’auparavant, le clic se porte sur les trois premiers résultats sans même avoir regardé les autres, alors qu’auparavant l’utilisateur en regardait plus avant de cliquer sur l’un d’eux.

Une étude citée de la Cornell University indique de manière convergente, que 79% des clics sur Google se portent sur les trois premiers résultats (63% sur les trois premiers sur AOL). 87% des répondants indiquent que s’ils ne sont pas satisfaits des résultats sur la première page de recherche, ils modifient leur requête (et ne vont pas chercher sur les pages suivantes). 87% des répondants indiquent qu’ils n’utilisent pas autre chose que Google comme moteur de recherche.

Mon interprétation de cette étude serait plutôt que Google est de moins en moins considéré comme un outil de recherche par ses utilisateurs, mais de plus en plus comme un programmateur de média : on l’interroge, il répond, on jette un oeil ; si on est pas satisfait, ou intéressé, on lance une autre requête, et ainsi de suite…

Mon commentaire chez Fred Cavazza :

Cette étude ne traduit-elle pas un approfondissement d’une fracture numérique parmi les usagers d’internet à mesure que l’usage d’internet devient un usage de masse ?

Un usage raisonné de Google, en connaissance des grandes limites qu’il présente au niveau de la pertinence réelle des résultats qu’ils propose (même s’il progresse, même si c’est déjà étonnant de parvenir à un tel résultat avec une procédure robotisée…), conduit à ne le considérer que comme un outil de premier défrichage : les résultats réellement pertinents ne sont souvent pas sur la première page, et ne sont parfois même pas référencés. Il faut un “re-travail” humain important pour exploiter Google. Ça demande du temps et une compétence, pour parvenir à un résultat convenable.

Cette étude pourrait, à mon sens, montrer qu’avec la massification de l’usage du moteur, les utilisateurs “avisés”, qui “retraitent” les propositions de Google, pèsent aujourd’hui proportionnellement moins (voir presque plus), par rapport à ceux qui n’ont pas un abord aussi raisonné, et se contentent du premier résultat.

Peut-être ces “nouveaux utilisateurs” ne considèrent-ils d’ailleurs pas Google comme un outil de recherche mais plutôt comme un média de diffusion, et traitent-ils les résultats comme une offre de programmes sur laquelle on zappe comme sur sa télévision… Google serait pour eux, finalement, une sorte de télécommande de télévision.

Le chercheur Olivier Le Deuff relève que les outils de recherche sociaux basés sur les folksomies, tels que delicious ou magnolia, commencent à arriver à maturité (peut-être ont-il franchi un seuil en nombre d’utilisateurs actifs et en taille d’index agrégé par ces utilisateurs) et que leurs résultats commence (d’un point de vue scientifique) à être plus pertinent et rapides d’accès que ceux proposés par Google.

Le grand avantage de cette méthode sur les moteurs est de permettre d’identifier rapidement des “personnes ressources” qui pratiquent une veille de qualité sur un sujet donné (ce qui s’avère bien plus difficile avec Google), ce qui donne immédiatement accès à des stocks de ressources hautement pertinentes.

Le perfectionnement de la qualité de la recherche (en termes de pertinence réelle des résultats) me semble en tout cas s’essouffler chez Google, qui dispose peut-être, à ses yeux, d’un outil “suffisant” pour développer une stratégie qui s’éloigne aujourd’hui de la recherche pour aller vers celle de sélectionneur de contenus diffusés, voire de programmateur de médias.

Les progrès en terme en recherche “pure” me semblent aujourd’hui se déplacer de la recherche par algorithme vers la recherche sociale…

—-

Mise à jour (9 septembre 2008) :

– Lire aussi : Astrid Girardeau (Ecrans), “Recherche dans Google : Les trois premiers, sinon rien”

7 Comments

  1. Narvic,
    Je vous promets qu’il s’agira bien de mon ultime intervention sur votre blog.
    Mais contrairement à ce que dit votre ami Cratyle, les algorithmes de google (par quoi lui et vous entedez surement pagerank) ne sont pas les seules choses qu’offre leur moteur de recherche.
    Ce qu’il offre, et qui est moins tf1, c’est aussi un grand nombre de page indexée (il est là aussi question d’algorithmes, et toujours pas d’algorythmes) avec un mécanisme de requêtes puissant. Ce mécanisme est souvent ignoré du grand public, et les ouvrages qui le mentionnent font souvent aussi état d’autres moteurs (qui n’ont ni les mëmes capacités d’indexation, ni les mêmes algorithmes de classification). Voilà pour le propos tf1 de google.
    Quant à la fusion du moteur de recherche, et du navigateur, c’est sans doutes une chose que vous connaissez en tant que macophile. La petite boite de recherche en haut à droite du navigateur est l’example même de la fusion (et génère du revenu pour Apple).
    La notion de réseau de confiance, n’est pas entièrement nouvelle, que ce soit votre principale source d’information, soit (j’aime aussi beaucoup netnewswire), que ce soit votre seule source d’information me laisserait dubitatif.
    Enfin lorsque je lis : “Google confirme sa vocation à n’être qu’un outil grand public pour un usage très basique. “, et que je considère le travail qu’a fait l’entreprise pour la diffusion de la connaissance (google tech talks – faites donc la recherche), son support des projets open sources (via le google summer of code, ou googlecode), ou encore google books, je suis perplexe.
    Confier au seul Google la responsabilité de tels projets, pose problèmes. En revanche, si TF1 s’engage dans une telle voie… je suis (Je serais assez curieux de voir un TF1 innovant dans le monde médiatique, un TF1 investi dans la mise au point de standards, un TF1 qui mettrait à disposition des moins fortunés ses outils de production… Les limites des comparaisons me direz vous.)

  2. @ UnPseudo

    Je vois que vous avez bien relevé le caractère provocateur et polémique de ma comparaison entre Google et TF1. 🙂

    Face au déferlement massif dans la blogosphère de publicité gratuite pour le nouveau produit Google ces derniers jours, une véritable extase, qui gagne même les médis traditionnels (annoncer la sortie d’un simple navigateur en version béta dans le journal de France-Inter, ça devient dément), et presque partout la même béatitude, que vous semblez partager, un peu de Google bashing ne fait pas de mal. :-))

    Précision sur l’index de Google : le nombre de références qu’il comporte peut être aussi gigantesque qu’on le veut, ce qui compte, c’est qu’il soit capable de me donner le résultat que je cherche (et il a bien du mal à le faire). J’ai cru entendre (détrompez-moi si je me trompe 😉 ) que le nouveau moteur de recherche Cuil avait été lancé avec une base de départ de pages référencées particulièrement conséquente (le moteur avait fait sa pub de lancement très largement sur ce thème précis) et les résultats qu’il fournit sont loin d’avoir convaincu les observateurs…

    La base indexée reste bien entendu un aspect essentiel, et un réseau comme delicious devient très intéressant à utiliser car le nombre de membres qui l’utilisent en français et le nombre de références stockées chaque jour commence à devenir vraiment intéressant et exploitable.

    Ça permet désormais de mener des recherches en parallèle et de comparer. Ce que je fais intensément dans les domaines et sur les sujets d’information qui m’occupent. La recherche sociale, à mon usage, se révèle bien plus efficace (dans le sens de pertinence et rapidité) car elle me donne accès très facilement aux “personnes ressources” qui sur un sujet donné effectuent sur le net la veille et la récolte d’information pertinente et à jour.

    Sur les relations (pas si roses que ça) de Google avec le monde Open source et tout ce travail pour le bien public que Google offre généreusement à l’humanité, lisez par exemple “La face cachée de Google”, Ippolita Payot). très documenté et instructif…

  3. D’accord pour considérer Google comme le TF1 du Web : c’est celui qui amène la logique hiérarchique de son média à son apogée – et cela dit, être le TF1 du Web, c’est quand même beaucoup mieux que TF1 de la télévision, surtout par les temps qui courent-.

    Plus que d’accord aussi sur les limites inhérentes à tout moteur de recherche.

    J’ajouterais que les flux, par ce qu’ils ont de linéaire, et les tags, par ce qu’ils ont d’arbitraires, ne représentent qu’une solution très partielle au problème de l’organisation du Web – à la recherche d’un mode d’édition véritablement décentralisé du Web…

  4. @Narvic:

    Vous dites : “qui gagne même les médis traditionnels (annoncer la sortie d’un simple navigateur en version béta dans le journal de France-Inter, ça devient dément),”

    Ce que je comprends, mais pourquoi ne pas traiter de la nouvelle technonologique dans les media traditionnels (France Inter, avait passé une journée à répéter le PR speak de Microsoft à l’occation de la sortie de Vista)?

    Vous ajoutez :
    “et presque partout la même béatitude, que vous semblez partager, ”

    Je ne suis pas béat, j’ai mes réserves quant à Chrome, et je suis en cela la plupart des blogs à vocation technique. Cela dit je reconnais bien volontier que la nouvelle a provoqué chez les Geeks (moi y compris) une excitation, qui n’est pas sans rappeler celle que provoque l’arrivée d’un nouveau gamin dans la cours de récré, surtout quand son père est le capitaine de l’équipe de foot nationale. En même temps toute release majeur de navigateur entraine des remous dans les milieux concernés (cf. Firefox3, Opera 8 – la fin de l’adware, IE7, Safari 3…).

    “un peu de Google bashing ne fait pas de mal” . J’imagine qu’il fallait surtout lire le smiley. Mais dans le doute, je tiens à vous dire que je ne suis absolument pas sensible à cet argument. Le bashing de réaction ne fait guère plus de sens que l’encensement immodéré (et ce quel que soit le ‘vendeur’).

    “ce qui compte, c’est qu’il soit capable de me donner le résultat que je cherche “. Ici vous faites preuve d’une goutte de mauvaise foi. Je n’ai pas parlé du nombre de pages indexées dans l’abstrait, mais de sa combinaisons avec des mécanismes puissants de requête (ce qui implique d’ailleurs de bons algorithmes).

    Ceci m’amène à votre mise à jour. Lorsque vous indiquez : “on l’interroge, il répond, on jette un oeil ; si on est pas satisfait, ou intéressé, on lance une autre requête, et ainsi de suite…”, vous semblez qualifier cette attitude comme correspondant grosso modo au zapping (on allume, bof, on change). C’est ignorer à la fois l’importance de la formulation de la requête et sa puissance. En effet, les trois premiers résultats sont bien souvent suffisants pour affiner la requête. En somme, jouer avec la requête peut être une approche valable et fort lointaine du zapping (d’ailleurs, si vous avez eu l’occasion de travailler avec des expressions régulières, vous avez sans doutes testé diverses expression sur un texte témoin, avant d’obtenir un résultat convenable – c’est le même principe).

    De plus, lorsque vous obtenez une page sur internet, vous assumez que vous y trouverez des liens vers d’autres ressources (après tout c’est même dans le nom du protocole sousjacent de l’internet HT (hypertext) TP 🙂 ).

    On pourrait noter que les mécanismes de recherches via réseaux sociaux (qu’ils soient blogroll, ou ce que vous appelez personnes ressources) entrainent un risque non négligeable de cloisonnement.

    J’ajouterais, qu’en parlant de personne ressource, vous déplacez le problème: vous déléguez le filtrage de vos recherches à une personne de confiance. Toutefois une personne familière avec un moteur de recherche donné ne fait pas autre chose.

    Pour conclure, il me semble qu’une bonne stratégie est d’utiliser le plus d’outils disponibles (et aussi de modifier les outils en fonctions de objectifs de la recherche). Il faudrait, dans ce sens, éduquer le plus de monde possible aux différents outils de recherches (y compris dans leurs fonctionnalités avancées), et ce y compris sur son propre disque dur.

    Pour reconclure, je ne suis pas sans réserves quant à Google (l’entreprise).

    En post scriptum: j’ai du mal à comprendre comment vous résolvez le problème suivant

    Vous semblez critique quant à la volonté supposée de Google de déplacer sur le net l’informatique personnelle, tout en applaudissant des initiatives (folksnomie, réseaux sociaux) qui ne peuvent vivre et prospérer que sur le net. Surement, pour un adepte de ces outils, il serait paradoxal de ne pas saluer des initiatives qui permettraient à des développeur indépendants de les intégrer.

    Pardon de ce trop long post, et merci pour l’espace.

  5. @ UnPseudo

    Sur la recherche dans Google : j’ai déjà exprimé sur ce blog à d’autres occasions mes doutes sur l’usage qui est fait de Google par une grande partie de ces utilisateurs.

    Je dispose en effet, comme tout bon blogueur, d’une base de données très précieuse pour étudier les utilisateurs de Google : mes propres statistiques de consultation, et la liste des mots-clés entrés dans Google pour arriver ici.

    Vous en trouverez ici une sélection pour rire : Variations sur la sérendipité et une tentative de mesurer le problème là : Peut-on se passer du trafic généré par Google ? (vous verrez au passage que l’on s’intéresse à cette question sur ce blog depuis un certain temps, et pas en suivant un buzz actuel).

    La conclusion de mon observation est bien que, sur mon blog, 40% du trafic ramené est une pure pollution, sans aucune pertinence, et 16% relèvent d’un usage de Google comme un outil de pure navigation et non de recherche.

    Voilà, vu comme ça, on a déjà réduit le problème de moitié. 😉

    La vision de Google de la pertinence de la recherche est bien décrite par Chris Anderson ici :

    La philosophie fondatrice de Google est que nous ne savons pas pourquoi cette page est mieux que celle-ci : mais si les statistiques des liens entrants disent qu’elle l’est, c’est bien suffisant. Aucune analyse sémantique ou de causalité n’est nécessaire.

    Sauf, qu’en bout de chaîne, l’analyse sémantique, moi, je la fais quand même, sur mon petit blog et sur quelques centaines de requêtes : car si Google ne sait pas apprécier de manière automatique la pertinence réelle entre un mot clé et un texte, moi j’y parviens très bien, surtout quand je connais à ce point le contenu de ces textes que c’est moi qui les ai écrits (j’ai aussi une toute petite habitude professionnelle du maniement et du traitement de l’information…).

    Je m’aperçois ainsi que le taux de déchet est considérable, le nombre de fausse route est important, une grande partie des requêtes sont absurdes et ne peuvent mener à aucun résultat censé. C’est àa la réalité de l’usage de Google que je constate.

    L’argument de Google : c’est pertinent, puisque les gens l’utilisent et sont satisfaits, relève de la pure promotion commerciale et élude totalement le débat scientifique. Mais ça fait longtemps que Google a quitté les campus pour entrer en bourse…

  6. @Narvic:

    D’abord, je n’ai pas beaucoup d’estime pour l’article de Chris Anderson (si ce n’est le travail d’illustration de Marian Bantjes) dont l’original est là : http://www.wired.com/science/discoveries/magazine/16-07/pb_theory . Sans rentrer dans les détails on pourra utilement lire les opinions sur Edge ( http://www.edge.org/discourse/the_end_of_theory.html ) notamment Danny Hillis ou Jaron Lanier, ou encore sur ars Technica ( http://arstechnica.com/news.ars/post/20080625-why-the-cloud-cannot-obscure-the-scientific-method.html ) ou encore Andrew Gelman ( http://www.stat.columbia.edu/~cook/movabletype/archives/2008/06/the_end_of_theo.html ).

    Ensuite, j’ai quelques problèmes avec vos expériences (que j’avais lues à l’époque 🙂 ).

    D’une part sur l’échantillon, mais pas en termes quantitatifs. En effet, un blog est un lieu d’opinion, une voix (du moins si l’on en croit Merlin Mann – http://www.43folders.com/2008/08/19/good-blogs ), ce qui a une incidence sur les comportements de recherche. De plus vos analyses ne parlent pas de la position de votre blog dans les résultats, ce qui m’amène aussi à noter que vous n’avez pas de moyens de savoir si le lien a été cliqué par un opérateur humain ou par une machine. Les opérateurs machines, même s’ils sont minoritaires dans les activités de recherches, pourraient très bien être sur représentés dans les faux positifs.

    D’autre part, et c’est le plus important, je ne partage pas votre conclusion. Ce que vous savez c’est que 40% des requêtes qui arrivent sur votre blogs sont des déchets. Vous ne pouvez pas en tirer la conclusions que 40% des recherches n’aboutissent pas (recherches, pas requêtes). D’ailleurs, si 40% des requêtes aboutissaient à des déchets (même si je ne pense pas non plus que vos données soient suffisantes sur ce point), votre affirmation concernant le comportement de zapping se trouve affaiblie, car il est souhaitable qu’une requête entrainant un faux positif soit réformée le plus tot possible.

    Enfin, et je pense que c’est là que nous divergeons le plus, je concois google comme un simple outil (malgré sa puissance). Je considère qu’il faut promouvoir une méthodologie de recherche, que (malgré l’article de wired) les meilleurs outils du mondes ne se substituent pas à une circonscription correcte de la problématique de recherche, et qu’on a des résultats d’autant plus pertinents que l’on sait ce que l’on cherche. Il faut démystifier, autant que faire ce peut, les outils de recherche en incitant à bien les connaitre et à maitriser leurs fonctionnalités avancées. Le poids de Google sera d’autant diminué qu’il sera percu comme ce qu’il est : un outils puissant, parmi d’autres (qu’il faut continuer de développer).

Comments are closed.