sur le web

Reprise des hostilités entre GoogleNews et la presse belge

On n’aura jamais assez dit que l’activité d’agrégation en ligne des contenus de presse protégés par le droit d’auteur est juridiquement très fragile. J’écrivais il y a deux mois à ce sujet : “Ce débat est encore loin d’être clos et de nouveaux procès d’envergure internationale ne sont pas à exclure, car la question n’est pas encore réellement tranchée.” (cf. “Agrégateurs, les nouveaux maîtres du net”)

Bingo ! Les éditeurs de la presse belge francophone et germanophone viennent de rallumer la guerre avec GoogleNews, après l’échec des négociations à l’amiable qui se jouaient en coulisse depuis des mois et des mois…

Sur Génération Nouvelles Technologies :

(noir)“Ce mercredi, Margaret Boridon, secrétaire générale de Copiepresse, a fait savoir que les négociations qui avaient été engagées en vue de parvenir à un accord ont finalement échoué. La semaine dernière, une plainte a ainsi été déposée contre Google qui se voit maintenant réclamer entre 32,8 et 49,2 millions d’euros de dommages-intérêts. Si Google conteste encore les accusations à son encontre, Copiepresse s’est dit prêt à réclamer les historiques de connexion, afin de voir le nombre de visiteurs ayant eu accès aux articles et justifier le montant des dommages-intérêts réclamés.

(noir)L’audience est programmée pour le 18 septembre prochain, le temps pour les deux parties d’affuter leurs armes, ou peut-être finir par trouver un terrain d’entente…”

(/noir)

Sur The Inquirer :

(noir)“Une cour belge avait statué l’an dernier que Google n’était plus autorisé à recueillir des niouzes de sources belges. Si d’autres cours de justices dans d’autres pays s’y mettent aussi, Google News devrait certainement très vite disparaître sous sa forme actuelle.
Pour l’instant, le jugement ne fait qu’isoler les groupes de presse belges du reste de la planète.”

(/noir)

Didier Durand, sur Media&Tech (qui m’a mis sur la piste) élargit le débat de manière intéressante :

(noir)“Google fait sûrement diminuer le nombre de visites sur les sites: il réalise une fois pour le compte de tous l’agrégation que chacun faisait personnellement en allant faire son opinion par des visites sur divers sites de médias.
il oriente les visites vers l’un ou l’autre site, suivant la news mise en avant comme représentative du cluster d’un sujet.”

(/noir)

(noir)“Il me semble que l’on vit là une sorte de ré-intermédiation (à fort pouvoir…) du légendaire 4ème Pouvoir, celui des médias et de la presse en particulier.

(noir)Si cette conclusion est juste, Google devra être immensément précautionneux pour ne pas transformer une querelle économique en un procès de société ou on lui reprocherait de plus en plus contrôler la diffusion de l’information….”

(/noir)

(noir)Le problème cornelien des éditeurs(/noir)

Le problème est cornélien pour les éditeurs de presse : ils accusent les moteurs de recherche d’info et les agrégateurs en ligne de parasiter leur activité, mais ils ne peuvent guère se passer d’eux, car ces moteurs leur apportent une part essentielle de leur trafic.

C’est en fait le modèle économique lui-même des sites de presse que ces moteurs remettent en cause. Les moteurs amplifient le phénomène de liquéfaction de l’information, de la consommation des articles “à l’unité” et non plus par “paquets” (cf. “Mon information 2.0. Le rédacteur en chef, c’est moi !”), alors que les sites d’information s’efforcent d’affirmer leur marque, pour drainer l’audience vers l’ensemble de leur site et maximiser les ressources publicitaires.

Les deux logiques sont inconciliables. Et si les éditeurs de presse disposent d’une protection juridique très efficace, avec la législation sur le droit d’auteur, c’est une arme… atomique, qui leur fait plus de mal à eux s’ils l’utilisent, car elle conduit au dé-référencement et une chute d’audience, qu’elle n’en fait réellement à une entreprise de la taille de Google. La presse belge en a fait les frais après avoir gagné son premier procès contre Google.

(noir)Le New York Times joue l’ouverture totale(/noir)

Encore une fois, la logique d’ouverture générale à laquelle pousse le fonctionnement d’internet semble imparable. Le New York Times vient d’ailleurs de franchir une étape importante dans cette direction. Après avoir ouvert en 2007 l’accès gratuit à ses archives autrefois payantes, le site du New York Times avait vu son trafic exploser (lire sur Universmedia), grâce à un bien meilleur référencement dans les moteurs, drainant vers son site de nouveaux lecteurs.

Le journal américain franchit un pas de plus, et quel pas !, vers la désagrégation volontaire de sa diffusion, en travaillant au développement d’une API, une “application composite”, permettant à des tiers de proposer un service associant des informations tirées de la base de données du journal (son contenu) avec des données provenant d’autres sources (les cartes géographiques de GoogleMaps, par exemple).

Dans le monde des sites de presse, c’est une révolution.

Martin Lessard, sur Zéro Seconde:

(noir)Pour les journaux, c’est un virage 180 degrés par rapport aux solutions de fermeture aperçues dans les dernières années.
Ouvrir son propre contenu pour qu’il soit intégré à d’autres services relève de l’audace.

(/noir)

De l’audace ? Où l’acceptation de ce qu’il n’y a finalement pas d’alternative ? Et un pas de plus dans une direction aux perspectives assez vertigineuses : la fin des sites web proprement dits : le New York Times est-il appelé à n’être plus, un jour, qu’une base de données diffusant en ligne des articles de presse, auxquels ont accède par des moteurs de recherche, des flux RSS et des API disséminées sur les blogs ? (cf. “Les sites web ont-ils un avenir ?”)