Plusieurs analystes, se basant sur un faisceau d'indices concordants, annoncent la fin prochaine du réseau social Google+. L'article de Guillaume Champeau dans Numerama résume admirablement le tout et permet d'expliquer les récents changements de Google+ concernant notamment la possibilité de nouveau offerte de s'y inscrire sous un pseudonyme et non plus obligatoirement sous son vrai nom.
Nous verrons si Google+ ferme ou survit encore quelques années mais la baisse de régime et d'engouement est certaine. C'est la deuxième fois dans l'histoire du moteur que celui-ci se prend les pieds dans le tapis du réseau social. Première tentative et premier échec (cuisant) avec Orkut dont le même Google a annoncé récemment l'abandon.
Ce qui pose la question suivante : pourquoi une firme avec la trésorerie, la technologie et le public captif de Google ne parvient pas à s'installer durablement et confortablement sur le segment "réseau social" ?
1er argument : celui du "trop tard". L'économie des internets n'accorde que très peu de place à ceux qui ratent le premier train. Sur les projets de numérisation des livres par exemple, Microsoft s'était cassé les dents pour avoir démarré son service un an après le lancement de Google Books.
2ème argument : le seuil critique et la prime à la plus grosse (base d'utilisateurs). Une fois un service installé (en l'occurence Facebook), une fois que ce service atteint une certaine amplitude en nombre d'utilisateurs, il est quasi-impossible de lancer un service similaire. Ne reste que l'option classique du rachat, mais en l'occurrence, Facebook n'est pas à vendre. Quand Google+ a été lancé (en 2011), la base d'utilisateurs actifs de Facebook était déjà considérable (620 millions d'utilisateurs actifs soit presque 100 millions de plus que n'en compte Google+ aujourd'hui) et même en "obligeant" les détenteurs d'un compte sur l'un des services de l'écosystème Google à ouvrir simultanément un compte Google+ ne serait-ce que pour pouvoir accéder à certaines fonctionnalités des autres services Google, la mayonnaise ne prend pas : parce que utilisateurs n'aiment pas qu'on les "oblige", parce que tout le monde est déjà sur Facebook, parce que Facebook répond déjà au "besoin social", et parce que l'on n'a pas chez soi 2 télés que l'on regarde en même temps, deux radios qui diffusent en même temps le même type de programme, bref parce que la valeur ajoutée du service Google+ n'est pas significativement différente de l'expérience utilisateur déjà proposée (et couverte) par Facebook.
Deux arguments certes valables mais insuffisants.
Quelque chose d'autre résiste.
Le même type de résistance qui fait que depuis son lancement et malgré son milliard et demi d'utilisateurs actifs, Facebook n'a toujours pas réussi à lancer un moteur de recherche convenable. Ce qui résiste c'est le coeur de métier de chacune de ces firmes. Une résistance de nature algorithmique. Mais de nature plus fondamentale aussi, plus structurelle. Ontologique. La dialectique du trou et du mur. Search Hole contre Social Wall :
"c'est une logique physique qui s'impose. Celle du trou contre celle du mur. La zone de saisie des moteurs de recherche (sublimée jusqu'à l'épure chez Google) est un marqueur d'entraînement. Une boîte de Pandore. Une promesse qui repose sur l'absence. Une fente freudienne porteuse de tous les fantasmes. Une fois activée, une fois la requête déposée, la matière noire attentionnelle peut être librement façonnée au bon vouloir du moteur et de ses annonceurs. La zone de saisie de Facebook est superfétatoire. La zone d'activité de Facebook est son mur. Un mur qui fonctionne comme un marqueur de "suivisme", un blocage contemplatif. Le trou éveille une curiosité. Le mur implique un balayage des inscriptions déjà déposées. Dans sa course à la monétisation Facebook a raté une étape : celle du désir, celle de la requête, celle du désir de requête. Sans requêtes, la pompe à phynance publicitaire ressemble à un pétard mouillé. (…) Les moteurs de recherche reposent sur un "dire en défaut" qui appelle presque naturellement le "dire en excès" des pages de résultats. L'interface de Facebook repose, elle, sur un "dire en excès" qui déclenche, par réaction autant que par stratégie et par saturation, un "dire en défaut", une simple consultation là où les autres inaugurent toujours une navigation."
Google ne pourra jamais être un réseau social. Facebook ne pourra jamais être un moteur de recherche. Ni parce qu'ils n'en ont pas les capacités techniques ou financières. Ni parce qu'ils sont partis trop tard. Ni parce que que quelqu'un d'autre répondait déjà parfaitement au besoin quand ils se sont lancés. Ils n'y arriveront pas parce qu'il y a autant de différence entre un réseau social et un moteur de recherche qu'entre les énergies fossiles et les énergies renouvellables, qu'entre l'industrie du textile et celle de l'armement, qu'entre un homme et un document. Et pourtant, et pourtant me direz-vous c'est ici même que s'est développée la thèse selon laquelle, justement, "l'homme est un document comme les autres". C'est ici, c'est moi, sur ce blog qui vous ai expliqué que "oui, on peut indexer des hommes – en tout cas leurs profils – comme l'on indexe des documents". Oui. Oui mais.
Oui mais la différence ne vient pas de la nature des objets documentaires (pages web et profils) qui entrent dans le spectre d'indexation et de monétisation de chacun de ces deux acteurs. L'un comme l'autre sont en effet capables et emploient peu ou prou les mêmes routines algorithmiques (Pagerank et Edgerank) pour constituer un pan-catalogue du milliard de sites web disponibles sur la toile et des 3 milliards de profils qui la peuplent. Google est capable d'indexer des profils Facebook comme il indexe des pages web. Facebook est capable d'organiser et de hiérarchiser les relations sociales d'un milliard et demi d'utilisateurs comme Google organise et hiérarchise plusieurs milliards de pages web. "Ils" en sont capables mais au titre d'une compétence de bas niveau, comme "je" suis capable de poser un vague diagnostic sur quelques pannes de mon anatomie ou de ma voiture sans être pour autant médecin ou garagiste. Ce n'est ni mon métier, ni ma nature, ni ma fonction.
De l'ordre et de la méthode.
Le métier de Google c'est de produire de l'ordre (un ordre par ailleurs tout à fait discutable et discuté) à partir d'un désordre documentaire, d'une stochastique, d'une entropie de nature informationnelle. Voilà pourquoi Google cartonne et reste indépassable sur le secteur de la vidéo (Youtube), du livre (Google Books) et de la recherche d'images, de pages, d'actualités, etc. (le "moteur" Google). Google est un artefact technologique néguentropique. Il institue, installe et fige algorithmiquement un ordre documentaire du monde qui se substitue à l'ancien ordre documentaire de l'ancien monde (celui des classifications et des bibliothèques d'avant le réseau). Le métier de Google c'est de réduire l'entropie à tout prix et à moindre coût.
Le métier de Facebook c'est d'entretenir un désordre documentaire artificiel hors duquel la "proximité sociale" de son milliard et demi de membres virerait inéluctablement à l'affrontement idéologique ou politique.
Ce qui résiste à Google c'est finalement la part humaine de l'activité documentaire, de la documentation du monde. Une entropie non substitutive algorithmiquement. Un désordre qui échappe à la mise en algorithme, en tout cas à la mise en algorithme telle qu'envisagée par le Pagerank. Vous me direz : "il n'a qu'à développer son propre Edgerank". C'est techniquement possible. C'est d'ailleurs ce qu'il a tenté de faire pour Google+. Mais là encore en se heurant à une résistance quasi ontologique : c'est soit un algorithme de type Edgerank, soit un algorithme de type Pagerank. Mais pas "les deux à la fois".
Le Pagerank est un algorithme classificatoire néguentropique qui s'appuie sur des externalités en mouvement auxquelles il offre un centre gravitationnel dont l'équilibre est assuré par un trépied de liens sponsorisés. L'Edgerank est un algorithme définitoire entropique qui s'appuie sur des internalités auxquelles il propose des attracteurs informationnels (ou distractifs) choisis. En termes plus simples, Google doit, pour survivre, en permanence réduire le bruit (informationnel) quand Facebook doit, pour survivre, en permanence entretenir le bruit (conversationnel).
La stratégie du Pagerank, sa logique itérative, est ontologiquement celle d'une réduction, celle de toutes les réductions que permet l'accumulation documentaire. Comme à chaque fois dans l'histoire des sciences et des techniques, à chaque fois que l'on franchit un stade dans l'accumulation des savoirs, on opère une réduction classificatoire (c'est un certain Melvil Dewey qui s'y colla le premier, suivi par Otlet et La Fontaire avec la CDU, lesquels avaient été précédés par le Trivium et le Quadrivium romain, etc.), il s'est toujours agi de ramener une immensité de connaissances dans le cadre rassurant et synoptique d'un espace que le regard humain peut embrasser d'un seul coup : "L’histoire des sciences et des techniques est pour une large part celle des ruses permettant d’amener le monde sur cette surface de papier" disait Latour.
La stratégie de l'Edgerank, sa logique itérative, est ontologiquement celle d'une augmentation, celle de toutes les augmentations que permet une socialisation qui ne nécessite pas – au sens propre comme au sens figuré – de devoir d'abord se "connaître".
Ce qui résiste à Facebook c'est la part documentaire de l'activité humaine. Facebook est capable de traiter algorithmiquement la "sociabilité", en considérant chaque profil comme un document, en y associant des métadonnées, mais il échoue dans le passage à l'échelle documentaire primitive : l'essentiel de nos interactions se fait "dans" facebook mais l'essentiel de nos interactions repose sur "des documents" qui bien qu'internalisés, bien qu'encapsulés, sont et demeurent extérieurs à Facebook et donc à son algorithme, lequel algorithme lorsqu'il choisit d'en afficher certains plutôt que d'autres vient du même coup "couper" leurs périphéries documentaires (= les hyperliens et relations de partage qu'ils entretiennent avec d'autres documents) alors que ces périphéries sont nécessaires et constitutives de leur nature … documentaire, et que sans elles il devient précisément impossible de les "classer", de les faire entrer dans un ordre documentaire. Il faut alors faire le choix d'un ordre documentaire de niveau "inférieur", moins élaboré, et totalement inféodé aux logiques relationnelles des profils dont une partie ne peut pourtant être définie que par l'observation de l'ordre documentaire qu'ils mobilisent et dans lequel ils évoluent "à l'extérieur" de Facebook.
Donc ça bloque.
Vieille histoire de la poule et de l'oeuf avec le Pagerank dans le rôle de la poule et l'Edgerank dans le rôle de l'oeuf. Ou l'inverse. Mais pas les deux à la fois. Jamais les deux à la fois. D'où le problème.
A l'inverse Google est capable de raccrocher son ordre algorithmique, "reductio ad documentum", à des "profils" (le fameux mais désormais abandonné "authorRank") mais il échoue dans le passage à l'ordre social primitif : l'essentiel des logiques classificatoires du Pagerank reposent sur des individus (qui établissent les "backlinks" de la formule originelle dudit Pagerank), qui bien que "monitorés" par un ou plusieurs des services affiliés (gmail, youtube, etc …) demeurent extérieurs à Google et donc à son algorithme et pour lesquels il n'a accès (par exemple lorsqu'il indexe des profils Facebook) qu'à la partie la moins charnue de leur anatomie documentaire, c'est à dire les informations déclaratives sur leur identité et leurs photos de profil. Google ne dispose pas d'un accès à la périphérie sociale de ces profils (c'est précisément pour ça qu'il s'échine à créer son propre réseau social et qu'il échoue en me permettant de rédiger ce billet), Google, disais-je, ne dispose pas d'un accès à la périphérie sociale de ces profils, périphéries sociales qui sont pourtant de nature essentiellement documentaire (les documents que les gens partagent) et qui rendent donc impossible leur traitement algorithmique à la sauce Pagerank.
Hoquets algorithmiques.
L'algorithme de Google est un algorithme "stable". A tout le moins relativement stable. Composé d'une liste de plus de 450 critères différents venant compléter la formule originelle du Pagerank, il subit naturellement des changements et des évolutions régulières (les fameuses "Google Dance"), mais l'essentiel des modifications consiste à réajuster la hiérarchie d'une minorité de critères. 890 changements d'algorithmes pour 2013 mais dont la plupart sont insignifiants, transparents et indolores pour l'usager, et ne visent, à l'instar d'un mécano resserrant quelques boulons, qu'à asseoir la stabilité produite par l'ensemble. Cette – relative – stabilité est à la fois l'écho et le miroir de la stabilité de l'ordre documentaire que Google vise à instituer en paradigme de l'accès. Cette stabilité est notamment "visible" dans la rémanence de l'ordre général des résultats affichés pour des requêtes similaires.
A l'inverse, l'algorithme de Facebook, particulièrement ces derniers temps, subit des modifications permanentes, l'équivalent d'une "Google Dance" par mois depuis les 4 ou 5 derniers mois, qui impactent directement – c'est le but – l'expérience utilisateur. Ces hoquets algorithmiques quasi-permanents ne traduisent pas seulement une fébrilité dans les logiques de monétisation associées mais, peut-être plus essentiellement, la nécessité de faire en permanence varier la composante documentaire "externe" pour qu'à son tour elle génère des interactions permettant au site de continuer à monétiser sa base d'utilisateurs captifs. Si Facebook a horreur de la friction, le coeur de son algorithmie a pour rôle d'en diminuer les effets dans un environnement de voisinnage au sein duquel près d'un milliard et demi de profils ne pourraient qu'en venir à l'affrontement si le rythme du "turn-over" documentaire venait à faiblir ou à se stabiliser. Cette instabilité est notamment "visible" dans la rotation et l'altération permanente des contenus affichés sur nos murs hors de tout processus de requêtage.
Si, par nos requêtes, nous sommes encore à l'origine du mouvement derrière l'affichage d'une page de résultats de Google, c'est à l'inverse cette absence de requête, cette absence de désir, qui oblige Facebook à organiser et à modifier en permanence l'ordre de l'incessant défilement des images de l'actualité se reflétant sur nos "murs".
C'est au pied du mur qu'on ne voit plus le moteur.
Pour autant ces 2 outils, ces 2 biotopes, ces 2 algorithmes font face aux mêmes tentations, aux mêmes détournements conscients et orchestrés de leur finalité première : homophilie, kakonomie et filter bubble.
Homophilie car pour les documents comme pour les hommes, qui se ressemble s'assemble.
Kakonomie car pour les documents comme pour les hommes, les interactions de bas niveau, celles au coût cognitif quasiment nul, sont aussi le premier ciment du lien social, la première ancre du lien documentaire.
Filter Bubble car pour les documents comme pour les hommes, pour entretenir le bruit conversationnel et/ou pour réduire le bruit informationnel, il faut enfermer les gens dans leurs bulles, leur montrer et leur donner accès à des documents qui entretiendront leurs propres croyances et les conforteront dans leurs propres certitudes, il faut présenter aux profils des profils semblables, assimilables, compréhensibles, il faut éliminer la friction.
Voilà les 3 maux qui sont autant de convergences liant moteurs et réseaux sociaux. Voilà la seule algorithmie du troisième type, la seule capable de réconciler Page et Edge-Rank, le classement des "pages" et le classement des "bords", celui des marges.
Social Network Match : Facebook 1 Google 0.
Search Engine Match : Facebook 0 Google 1.
Alors pour en revenir à ce qui fut la motivation première de l'écriture de ce billet, à savoir la mort annoncée de Google+, oui, je la crois aussi certaine à moyen terme. Mais la planète web a déjà changé deux fois d'axe de rotation. Tournant autour des documents, elle vit l'hégémonie de Google. Tournant autour des profils, elle vit se bâtir l'empire de Facebook. Demain elle tournera autour des objets, de l'internet des objets. Et le modèle algorithmique le plus adapté à ce troisième changement d'axe de la planète web semble être celui du Pagerank. Google a perdu le match du réseau social. Il s'apprête à remporter celui de l'internet des objets. Des objets qui pourraient lui permettre de cristalliser algorithmiquement la composante humaine qui lui échappe encore. Des objets qui hériteraient de propriétés "sociales" compatibles avec cette algorithmie de l'ordre. Et de la méthode.
Mais c'est une autre histoire, pour un autre billet 🙂