S’il est un secteur que Google semble se plaire à chahuter, c’est certainement celui de la presse. Souvenons-nous des premières réactions au lancement du service Google News : la presse classique ne devait pas s’en remettre. Ce combat qui devait se solder par un KO dès la première reprise n’est finalement toujours pas terminé. La presse s’en est pourtant remise. Elle a pris des coups, mais elle s’en est remise. Plus exactement, elle a appris à faire de "GoogleNews like" pour structurer son offre numérique. Et elle a compris comment contourner ce qui lui semblait a priori un obstacle infranchissable en se recentrant sur sa première compétence, celle de "fournir" et de "traiter" de l’information.
Souvenons-nous encore des procès intentés par certains journaux (presse belge) ou agences (AFP) au même service, au nom du droit d’auteur, l’accusant de leur "voler" l’essentiel de l’information sur laquelle ils apportaient une valeur ajoutée journalistique.
Dernier séisme en date, l’annonce de l’ouverture des commentaires sur Google News,
pour ceux "ayant un lien" avec l’affaire commentée (exemple), ce qui lui vaudra (à Google) d’être comparé à … Osama Ben Laden par le LATimes. Comparaison certes outrancière (d’autant que l’article en question était une tribune … non-signée) mais qui révèle une tendance lourde, celle d’une « société du micro-trottoir et de la connaissance spontanée » qui, pour le moins, pose question, constituant pour d’autres analystes plus maîtrisés une nouvelle forme de populisme.
Et puis … et puis … GoogleNews vient donc d’annoncer que grâce à un nouvel algorithme, il n’affichera plus qu’en tant que "copies" les articles reprenant des dépêches d’agence avec lesquelles il a passé un accord. L’AFP, qui avait obtenu le retrait de ses dépêches du service GoogleNews, fait partie de ces agences pour lesquelles les dépêches seront directement hébergées sur GoogleNews afin d’en faciliter l’accès, le référencement, et pour mieux pouvoir détecter les simples "copies", qui resteront toujours accessibles mais seront reléguées dans les limbes, et identifiées comme telles – de simples copies, donc.
Google fait donc un peu de ménage pour laisser remonter en priorité les informations originales. Qui songerait à s’en plaindre ? Hummmm ? Comme le rappelle Emmanuel Paquette, "Aujourd’hui, 23% des connexions sur leMonde.fr proviennent de Google
News selon les chiffres de Nielsen du mois de juillet. Ce chiffre est
de 20% pour le site du Figaro, 13% pour le Nouvel Observateur et 5,4%
pour LesEchos.fr." Des chiffres qui bien qu’inexacts permettent d’identifier avec certitude les futurs plaignants.
Dans ce débat – comme dans celui qui concerne la numérisation d’ouvrages du projet GoogleBooks – la première clé, est celle de l’accès, de la masse critique d’utilisateurs captifs que possède Google et qui fait de lui un prescripteur planétaire simplement incontournable.
La seconde est celle du flux. Ce flux d’information "brute" (dépêches d’agences) ou requalifiées (presse) qui, pour autant que ses acteurs parviennent à en garder la maîtrise, oblige Google à négocier avec eux, le ramenant à son rôle de simple "digue" informationnelle.
La question de l’hébergement par Google des dépêches des agences contractantes et celle des sous-domaines réservés (exemple : http://afp.google.com) est loin d’être neutre. Elle permet à Google de réaliser le coup du chapeau (ou la passe de trois) sur l’information planétaire :
- Google.com : Sur ses serveurs, Google stocke et héberge la base de donnée du web public. Il a d’ores et déjà irrévocablement et incontestablement gagné la bataille des données et de la recherche d’information.
- Books.google.com : Sur ses serveurs, Google stocke l’ensemble des copies des ouvrages numérisés dans la cadre de son programme bibliothèque, mais également ceux numérisés intégralement mais dont seuls sont – pour l’instant ? – disponibles quelques extraits dans le cadre des contrats passés avec les éditeurs. Il est en passe de gagner la bataille de la connaissance
- News.google.com : Sur ses serveurs, Google héberge donc désormais également l’information brute ou requalifiée, en tous les cas "sourcée" au sens journalistique du terme.
Certes il va y avoir du nettoyage, certes certaines mauvaises pratiques liées à l’importance du référencement pour les sites médias vont pouvoir être freinées et nombre d’hypocrisies levées (voir là dessus le billet d’Emmanuel Parody). Certes. Mais ce "coup du chapeau" apparaît aussi particulièrement inquiétant parce qu’il pourrait, pour l’ensemble des acteurs concernés, marquer la fin de la maîtrise des flux, de leurs propres flux. En d’autres termes, tant que Google ne maîtrisait que les "sorties" (output), via le classement et l’affichage des sites /ouvrages/infos sur les différents services sus-mentionnés, une auto-régulation, un équilibre, un feed-back était possible. Il était même envisageable de le prendre au propre piège de son algorithme (souvenez-vous du GoogleBombing). Si demain, Google venait à contrôler également un nombre suffisamment significatif "d’entrées" (input) … alors … alors …
Juge ET partie. La digue ET le flot. Les données ET l’information ET la connaissance. Le coup du chapeau. Et le second du genre, le premier ayant été réalisé par le contrôle "en lecture" (comme disent les informaticiens) de données relevant de nos sphères publiques, intimes et privées (cf ma petite théorie de la dérive des continents documentaires).
A ceux qui seraient tentés de crier halte à la paranoïa, je demande le nom de l’auteur qui a écrit un roman d’anticipation dans lequel un "organisme" est en capacité de lire nos courriers privés et professionnels, connaît des pans entiers de nos "intimités" parce que nous les lui racontons au moyen des outils qu’il met à notre disposition, dans lequel ce même "organisme" fait également office de bibliothèque universelle et unique et décide enfin de l’information que nous lisons dans nos journaux ?
Welcome Home, Winston.
(Sur le même sujet : Zorgloob, Emmanuel Parody)
Disons les choses simplement: la question de la position dominante de Google se pose désormais en terme politique. Et ce n’est plus une question de paranoïa, le plus fanatique des néoliberaux ne peut tolérer qu’un acteur puisse être en mesure de d’influencer les données du marché.
Sinon je pense en effet qu’un pas a été franchi cet été. Google est désormais éditeur. Pas sûr que cela fasse partie d’une stratégie malicieuse d’ailleurs. Plutôt la marque d’une organisation surpuissante qui ne résiste plus à la pulsion du pouvoir.
Emmanuel> Merci de cette limpide et synthétique clarification de mes propos 😉
Je partage l’analyse, mais n’oublions pas quand meme que le pire n’est jamais certain!
Il y a 10 ans le monde informatique a vécu une situation comparable avec Microsoft.
On attendait Sun et HP et la réaction est venue avec le monde du libre. Linux, Firefox, Apache….
De la même facon il est illusoire de penser que les politiques ont les moyens de réagir (cf quaero)
Imaginons maintenant que les gens ne cherchent plus avec les moteurs de recherche. Le stickyness de google devient faible.
Imaginons que les gens se servent d’une base de connaissance construite par des humains, couvrant quasiment tout les domaines, qui soient un point d’entrée pour des informations bien plus pertinent qu’un algorithme que des milliers de gens s’efforcent de gruger (avec succès).
Et bien on l’a peut être sous les yeux ce point d’entrée…
Et si Wikipédia pouvait faire cela?
D’autant mieux que Google place le wiki dans le top des recherches 🙂