le salon

Savez-vous surfer sans Google ?

Etonnants résultats publiés par Astrid Girardeau sur Ecrans : le gros bug de Google de samedi dernier, entre 14h27 et 15h25 GMT, a entraîné une baisse globale du trafic web de 21% durant la panne. Le trafic “perdu” de Google ne s’est que très faiblement reporté sur l’accès direct ou sur d’autres moteurs de recherche. Il a été tout simplement… perdu pour tout le monde. A part peut-être pour Google lui-même, qui en a récupéré une partie sur ses liens publicitaires (qui fonctionnaient toujours, eux !).

Google se présente un peu plus chaque jour non plus comme un moteur de recherche, mais comme un diffuseur de programmes en ligne, un TF1 du net. Non seulement il se révèle indispensable, mais de plus il influe sur la qualité des contenus et plutôt dans le sens du nivellement. De plus en plus, Google n’apparaît pas comme la solution, mais bel et bien comme une partie du problème…Ces résultats sont issus de l’analyse du trafic sur 54 689 sites suivis par AT Internet Institute (anciennement Xiti Monitor) :

(noir)Le report a été très faible. La panne a en effet provoqué une chute moyenne de 21% du trafic web, avec un creux à 29,3%, à 15h43 (heure de Paris). Un chiffre impressionnant, effrayant même qui souligne la situation de quasi-monopole du moteur, mais surtout l’incapacité des internautes à surfer autrement. « Le report vers d’autres moteurs est faible et une bonne part des visites est bel et bien perdue. Le réflexe Google est-il si fermement ancré que les internautes ne savent plus chercher autrement ? », s’inquiète ainsi AT Internet Institute.

(/noir)

(noir)Le report vers l’accès direct (saisie directe de l’adresse dans le navigateur ou bookmark) ou vers les autres moteurs de recherche a donc été très faible. 70% n’ont pas été reportées, les internautes ayant simplement abandonnés leur navigation. Pour les 30% restant, 16,2% ont opté pour un accès direct, et 13,9% pour un autre moteur de recherche. Celui qui en a le plus profité est Yahoo ! avec 41.7% des transferts, suivi de Live Search (24.7%) et d’Orange (13%).

(/noir)

Ces résultats sont, à mon sens, réellement inquiétants. Ils signalent d’une manière inédite l’ampleur de la Google dependance généralisée du web d’aujourd’hui : les sites ne peuvent plus se passer de lui… car les internautes ne savent pas faire sans lui !

“Google fait la pluie et le beau temps, c’est dramatique”

Les éditeurs de presse s’en inquiétaient récemment, comme le rapporte Olivier Rafal : Le journaliste 3.0 existera peut-être, mais la presse 2.0, c’est moins sûr :

(noir)Tout le monde veut croire que la magie prendra grâce à un contenu « de qualité », « décalé » et/ou réalisé en coproduction avec le public-internaute. Le sujet du référencement par Google, vécu à la fois comme une calamité et comme une bénédiction, a été vite évacué. « Nous sommes allés voir Google, pour être sûrs d’être référencés, raconte Philippe Mathon. On nous assurés que ‘oui, oui, pas de problème’. Mais leur algorithme ne s’en sort pas, ils nous l’ont dit à mots couverts, or ils font la pluie et le beau temps, c’est dramatique. » Denis Carreaux, du Parisien.fr, reconnaissait aussi : « C’est vrai que nous sommes complètement dépendants du référencement Google, cela produit un nivellement par le bas. Et engendre un paradoxe : ce n’est pas celui qui sort un scoop qui est référencé, mais ceux qui le reprennent ! »

(noir)Plutôt que de lutter contre ce pouvoir de Google, les sites d’infos préfèrent essayer d’en jouer. (…) Comme l’a indiqué Philippe Mathon : « Quelque soit le site, si vous mettez une info people ou insolite, vous ferez le meilleur taux de la journée. » Il n’y a pas à chercher plus loin la dérive de certains sites d’info dont on cherche en vain le rapport entre certains articles et la ligne éditoriale.

(/noir)

Google n’est pas la solution, Google est une partie du problème

C’est donc un problème à tiroir : Google est un accès privilégié à tous les contenus du web, il est donc un générateur d’audience irremplaçable (quand il bugue, il n’est d’ailleurs pas remplacé !), mais il contribue à formater les contenus disponibles, et malheureusement pas dans le sens de la qualité.

Il commence à devenir de plus en plus manifeste que Google n’est pas la solution, Google est une partie du problème. Et cela non pas parce que Google serait “méchant”… mais parce que Google est Google et que les internautes l’utilisent comme ça.

Google est de moins en moins un moteur de recherche et de plus en plus un distributeur de programme, une sorte le TF1 du net. Il devient de plus en plus indispensable pour trouver l’info en ligne d’inventer des stratégies de recherche qui font mieux que Google. Ce qui est tout l’enjeu de la stratégie des fous à lier.

L’enjeu n’est pas simplement économique (le partage de la rente publicitaire entre diffuseur et producteur de contenus), il devient de plus en plus politique : la position dominante de Google (à son corps défendant peut-être, ce n’est pas là le fond du sujet) devient nuisible à la pluralité de l’information et à la qualité des contenus. Il va falloir en causer vraiment un jour.

11 Comments

  1. Mouais, cela peut aussi vouloir dire que les gens trouvent le net pratique
    mais que s’il ne fonctionne pas, ce n’est pas bien grave.

  2. Comme TF1, mais de manière radicalement différente, Google établit une hiérarchie des contenus, et cette hiérarchie structure la création de contenu elle-même.

    Aller au-delà serait dé-hiérarchiser l’organisation de l’information sur le Web, ce serait permettre à chacun de produire sa propre organisation de contenus Web… Causons, causons, en effet 😉

  3. Bien essayé, mais un peu faux…

    1. Google est très logiquement le leader, a cause non d’une prétendue hiérarchisation (il s’agit de la recherche web et non de celle de Google News), mais pour trois raisons majeures,
    a/ la pertinence des résultats ,
    b/ l’intégration de nouvelles pages et résultats et leur indexation en quasi temps réel.
    c/ la rapidité et fiabilité de réponse face à une charge de demande auxquelles aucune compagnie sur Internet n’a à faire face.

    2. Il y a pourtant Yahoo qui suit de près sur a/ qui doit surement posséder la technologie pour faire face à c/ mais qui comme tous les autres concurrents n’a pas su répondre à b/ car ils sont face comme les autres à un problème d’investissement et de taille critique.

    Conclusion : on pourrait quand même dire et répéter aux nombreux utilisateurs, qu’ils peuvent faire tout autant confiance pour leur recherche de base de tous les jours à Yahoo.

    C’est un problème de Digital Literacy, ce serait mieux en effet que les personnes qui font de l’information désintéressée sur le Web, aident le surf quotidien de tout un chacun en disant que Yahoo search suffit à la majorité de leur besoin de recherche.
    Et que c’est un moteur qui mérite d’être respecté et employé.

    Alors je vois du “Google bashing” mais je n’ai vu pas grand monde éduquer et conseiller l’acteur basique,

    ni vraiment personne se mobiliser lorsque Microsoft se propose de dépecer Yahoo pour récupérer les utilisateurs de cette marque sur les chats MSN, et foutre à la benne une techno de recherche supérieure aux portails MSN, Orange, etc.

    Car, bon, une équipe techno internet Yahoo dans un univers managérial “old school” Microsoftien, ça n’apparaît pas viable sur le moyen terme…

  4. Le problème n’est pas tant de savoir faire une recherche professionnelle “d’eleet surfer” (les stratégies de recherches complexes sont surdimensionnées par rapport aux besoins de la multitude), que de dire à l’immense majorité des gens qui font des recherches au quotidien qu’ils n’ont pas forcément la nécessité de s’adresser à la puissance de Google pour leur besoin quotidien de recherche.

    Donc testez la concurrence, en commençant par Yahoo…

  5. @ Cratyle

    Je vois où tu veux en venir. 😉 Je te donnes des nouvelles bientôt (private message).

    @ django

    La concurrence que j’appelle face à Google n’est du tout celle à laquelle tu penses : moi je parle de la recherche sociale et des réseaux sociaux de recommandation.

    Par ailleurs, je ne te suis pas du tout sur la pertinence des résultats de recherche de Google (et de tous les moteurs de recherche en général) que je trouve personnellement très faible.

    Les contenus mis en avant sont les plus populaires (avec de plus en plus une prédominance commerciale), ça n’a pas de rapport direct avec la pertinence (sauf à prétendre que popularité=pertinence, ce qui est plutôt facile à démentir).

  6. Je crois surtout que nous avons à faire à une hiérarchisation des utilisateurs. On ne demande pas à un bricoleur du dimanche de savoir manier une d?zuki. Tandis que les amateurs avertis utiliserons sans doute des moteurs sociaux (comme rezo, aaaliens, etc) des agrégateurs (akregator, vienna, etc) voir des metamoteurs.
    Est ce dommageable ? Personnellement, je ne le pense pas.

  7. Ce qui est le plus effrayant dans ces résultats, c’est qu’on apprend que pour la plupart des gens, il est indispensable de cliquer sur un lien google même pour aller sur des sites qu’on utilise au quotidien.

    Ça confirme à large échelle les expériences qu’on est sans doute nombreux à avoir eu d’observer ses proches taper dans Google “hotmail” ou “crédit agricole” pour ses activités en ligne habituelles. Conclusion : les gens ne savent finalement pas se servir d’une barre d’adresse et ont oublié les favoris.

  8. Cette fois-ci, narvic, je me pose totalement en faux par rapport aux réflexions de ce billet.

    Dire que l’algorithme de Google est imparfait serait pertinent. Dire qu’il est source des problèmes me semble être totalement abusif.

    En effet, concernant la hiérarchisation, Google fait plutôt du bon boulot, pour peu qu’on paramètre un peu soigneusement sa recherche.

    Je peux toutefois comprendre que des journalistes formés à l’écrit papier, à la titraille gouailleuse plutôt que descriptive, à détruire leurs textes pour les faire rentrer dans les petites cases de leurs journaux papiers, à lier le moins possible, à rejeter en bloc la longueur et la complexité, se sentent extrêmement frustrés et dépossédés par ce moteur de recherche “inhumain” , dont ils ne maitrisent pas les codes.

    Pourtant, les codes de Google, hors intervention humaine justement, font un travail acceptable pour peu qu’on y soit un tant soit peu formé, et ce aux deux bouts (journalistes et lecteurs) de la chaîne. C’est l’éducation à l’information et à la recherche qui est le problème, et c’est cela qui engendre les comportements que vous constatez dans ce billet. Ainsi que l’efficacité extrême des produits Google, mais on ne va pas reprocher à une entreprise d’être d’une rare efficacité en ce qui concerne la satisfaction de l’utilisateur.

    Pas de bol pour les journalistes français, les codes de Google tendent dans leur objectif à aller à contre-courant de l’idée qu’ils se font – pour la partie la plus visible du moins – de leur travail : Google aime les longs textes. Il aime également les liens, les images et les vidéos. Il aime également la cohérence des liens qu’ils soient entrant ou sortant. Last but not least, il favorise excessivement la clarté aux dépens de l’expression stylistique (ce qui est nuancé dans le corps des articles par une longueur suffisante pour assurer la répétition, atteinte facilement si on traite d’un sujet en profondeur) , et n’aime ni les jeux de mots, ni les titres obscurs.

    D’un autre côté, c’est plutôt une chance pour le lecteur quand il est quelque peu éduqué à l’information. Quand je fais une recherche, par exemple burris blagojevich , je constate que le premier “grand média” est en dix-neuvième position, et que cette place est méritée compte tenu de la qualité des articles précédents, pour peu qu’on puisse rapidement éliminer les “intrus” . Je prends cet exemple parce qu’un de mes articles figure dans ce peloton de tête, et sans vouloir être médisant, son contenu est infiniment plus riche que les articles français lus sur le sujet (oups ! raté:-) ), à tel point que ceux-ci ne m’ont été d’aucun intérêt dans mes recherches sur le sujet, sauf pour des points très précis. Hors dans la publication Dedefensa.org, on ne trouve ni hauteur de vue, ni de liens entre évènements ou de cohérence, parce que les rédactions courent après l’information en permanence, sans plus prendre le temps nécessaire et indispensable pour faire de l’analyse et explorer les sujets en profondeur.

    Bref, je m’aperçois que les grands médias tiennent pour une portion de plus en plus congrue de mon flux d’information (hors le flux d’information brute de dépèches d’agences qui est bien évidemment indispensable, je parle ici du travail fait dans la presse, qui repose sur la contextualisation et la “mise en forme” de cette information brute) , dans les liens faits chez moi, et que je ne m’en porte pas plus mal…hors, sans Google, point de salut ! Jamais je n’aurais découvert autant de sites intéressants, ou en tout cas bien moins rapidement (surtout quand on pense que le décalage d’efficacité entre Google et les autres moteurs était bien plus grand début 2000) .

    Enfin, le problème éventuel de l’absolu monopole de Google se pose surtout en France, de nombreux autres pays étant nettement plus partagés.

    Mon commentaire semble quelque peu panégyrique, aussi je tiens à repréciser que ce n’est valable que si c’est combiné à une réelle volonté d’éducation aux médias numériques et à la recherche. Et je ne suis pas certain de la volonté des journalistes (et des responsables de l’Education Nationale, pour ce que ça vaut) pour éduquer les lecteurs au doute systématique (qui n’est pas similaire à la défiance, loin de là) et donc à la réflexion et à la critique.

  9. @ Moktarama

    Qu’elle vision idéalisée et fort peu réaliste de Google…

    L’aglorithme de GoogleNews, par exemple, pousse si peu à la qualité que c’est pour lui plaire que les sites de presse se sont presque tous transformés en canons à dépêche.

    Pour appréhender la pertinence de Google, il est moins pertinent d’observer ses propres usages de manière subjective et “en amont”, plutôt que d’observer “en aval” la nature du trafic réellement envoyé par Google sur les sites.

    80% des visites envoyées par Google ne comptent que pour quelques secondes, preuve qu’elles ne répondent pas à la demande de l’utilisateur. Ce sont des fausses routes. Des résultats non pertinents.

    La donnée intéressante pour appréhender la pertinence et donc la qualité d’une visite, c’est le temps passé. Sur mon site, c’est extrêmement clair : un visiteur Google passe en moyenne (c’est à dire y compris les 80% de fausse route) à peine 1mn sur mon blog, quand un visiteur delicious passe, en moyenne, plus de… 13mn ! Y a pas photo.

  10. @narvic :

    Je n’utilise pas du tout GoogleNews, notamment pour les raisons évoquées. Or les paramètres semblent très différents pour ce qui est du moteur de recherche simple, en ce sens que le court n’est pas exagérément favorisé (hors dans les moments de folie médiatique) , et que très souvent sont bien placés des rapports, des articles d’analyse ou de synthèse, maintenant des liens directs vers Google Books, etc etc…

    Je suis également d’accord avec le temps de visite, et donc la proportion de faux positifs.

    Avec une nuance toutefois, que vous aviez d’ailleurs constatée vous-même en n’interdisant pas le robot : j’ai 95% de fausses visites via Google, mais les 5% restants passent beaucoup de temps sur le site, et si on prend en compte le volume de trafic ça m’apporte plus de visiteurs que tous les autres “apporteurs de liens” notamment compte tenu de mon faible rythme de publication .

    Bref, de mon point de vue, j’aime l’aspect relativement statique et global de Google pour toute recherche un peu profonde. Même si ça force à ouvrir bien plus de pages que nécessaire, à paramétrer finement le bouzin pour obtenir des résultats probants. Parce que dans la situation actuelle, seul Google permet l’exhaustivité.

    C’est aussi pour ça que j’espère beaucoup du développement de l’économie des liens. Parce que non seulement celle-ci est bien plus efficace de gré à gré, mais elle s’intègre également à merveille de manière plus globale (et avec une audience infiniment supérieure pour le moment) dans les résultats des moteurs de recherche.

    J’assume mon absence de craintes face à la toute-puissance supposée des moteurs de recherches, surtout en cette heure tardive 🙂

    PS : par ailleurs, accuser Google d’avoir accéléré le temps de l’information, c’est un cheap shot. Le moteur de recherche pur ne le fait pas, et les journaux pouvaient fort bien décider de ne pas jouer le jeu de Google. Créer un wikio ou le racheter (et en faire une perle de l’excellence journalistique et de l’information de haute volée) était tout à fait dans leurs moyens il y a quelques années, surtout en mutualisant…

  11. Bonne question que celle posée dans le titre de ce billet …

    Il en est une autre : “Que se passerait-il en cas de panne de GG ?”, qui n’est pas la même et qui intéresse Google.

    Pour le savoir, on peut sonder, projeter, tableauter et tirer des plans sur la comète.

    Mais rien ne vaut un test en vraie grandeur sur un échantillon choisi (dont les plus dépendants) et pour une durée limitée.

    Je ne veux pas insinuer que c’est le vrai motif de l’incident, je dis que générer une erreur contrôlée fait partie du développement normal d’un produit. Cet incident fortuit a certainement été utile à différents niveaux, pour pas cher, et le hasard fait parfois bien les choses 🙂

Comments are closed.