Un communiqué de presse de Google en date du 16 Mai, nous apprend que ledit Google vient de prendre le tournant de la "recherche universelle" (Universal Search).
- De quoi s’agit-il ? Comme le dit Danny Sullivan, "d’un mélange de résultats provenant des services "actualités", "vidéo", "image", "local" et "livres" parmi ceux provenant des seules pages web de l’index principal du moteur." L’idée de départ est somme toute l’aboutissement logique de la "philosophie" du moteur, à savoir, rendre universellement accessible l’ensemble des Informations disponibles sur la planète. Le lancement de cette recherche universelle était par ailleurs
préparée depuis longtemps par Google qui cherchait à étudier le
meilleur moyen de renvoyer l’utilisateur vers d’autres espaces de
recherche que les pages web classiques, sans l’obliger pour cela à
changer de service, comme en atteste par exemple cette expérimentation. - Exemple : vous entrez la requête "Dark Vador". Bien entendu, les pages web traitant du personnage de Georges Lucas vous intéressent. Mais probablement aussi les images disponibles dudit Vador. Et tout autant les articles de journaux parlant de l’acteur qui joue Dark Vador. Et puis aussi les livres de la trilogie. Et des extraits vidéos de l’épisode 3. Et l es blogs de fans de la trilogie. Et ………..
Autant de bases de données a priori distinctes. Or la recherche universelle selon Google, c’est précisément l’annonce de la fusion de ces bases de données, ou plus exactement la possibilité (que l’on voyait par ailleurs déjà poindre sur certains résultats affichant dans la partie web un complément de liens pointant vers Google Maps ou Google News), la possibilité, disais-je, de renvoyer à l’utilisateur sur sa page habituelle de résultats, d’autres résultats issus de ces différentes bases, soit sous forme "embed" (on vous colle la photo de Dark Vador en haut de la page de résultats), soit sous forme "linked" (tout en bas de la page de résultats, on vous suggère – façon catégorisation automatique (mais ce n’en est pas) – des liens sur la base d’une requête identique ou augmentée d’un ou deux mots, lesquels liens pointent en fait vers d’autres services : images, news, maps).
Et là vous vous dites : "mais ça va être un b—-l sans nom si chaque fois que je tape "Nicolas Sarkozy" j’ai sa photo en haut, plus l’adresse de l’élysée sur Google Maps, plus le chapitre sur sa politique culturelle des vols charters extrait de son dernier bouquin, plus le dernier article de gala sur les frasques amoureuses de la first lady !!!"
Oui mais non.
Ca ne va pas être le "b—-l" comme vous dîtes, vu que – et c’est bien là l’intérêt (et la part d’opacité algorithmique) de ce service – google universal search ne semble pas conçu comme un service de fusion unidirectionnelle entre bases de données, service dans lequel vous auriez pour une requête, un résultat de chaque base interrogée ou interrogeable. Je l’ai dit plus haut, Google insére depuis assez longtemps des
résultats de sa base "livre" ou de sa base "news" ou encore "local" tout
en haut de certains résultats web. Avec Universal Search, l’objectif est à terme de rendre
tout cela transparent (pour l’utilisateur), et – c’est là tout l’intérêt technologique de ce qui serait une avancée majeure dans la recherche d’information – de ne disposer au final que d’un seul calcul de PageRank, tournant sur l’ensemble des bases Google, lequel Pagerank "universel" serait donc capable pour une requête sur "Dark Vador", de prendre des résultats en provenance de pages webs, de blogs, de vidéos, d’extraits de livres, etc… et de les classer par ordre de pertinence.
Et j’avoue être très sceptique là-dessus. Non pas que je doute des capacités de Google d’y parvenir, mais je suis sceptique du point de vue de l’intérêt que cela présente pour l’utilisateur, lequel à force de chercher partout, et sachant qu’il éprouvait déjà quelque difficulté à se rappeler de ce qu’il cherchait initialement, risque de ne plus rien trouver (d’intéressant) nulle part.
Comme le souligne encore Danny Sullivan en conclusion de sn billet, la condition sine qua non de la réussite de la mise en oeuvre de ce PageRank universel, est la mise au premier plan de la gestion de l’historique des recherches individuelles, la pertinence sur un ensemble de contenus hétérogènes n’ayant de sens qu’au regard des intérêts exprimés par chacun dans le cadre de ses recherches précédentes.
Alors quoi ?
Alors pour utiliser une comparaison un peu facile (mais il est tard), Google Universal Search c’est un peu l’Edouard Leclerc de la recherche d’information. Je m’explique et file la métaphore : plutôt que d’aller acheter votre viande chez le boucher, vos légumes chez le maraîcher, vos fruits chez le primeur d’a côté et votre Libé du jour à la presse d’en bas, et ben vous allez au supermarché. C’est pratique, y’a de tout, et vu le volume de ventes et des stocks, c’est moins cher.
Et tout ça pour quoi ?
L’enjeu pour Google est double : il s’agit d’abord de rendre son contenu plus visible au travers d’une verticalisation touchant l’ensemble de ses contenus. Plus précisément il s’agit de porter à visibilité égale des contenus jusqu’ici sous utilisés. Pourquoi ? C’est le point numéro deux, tout simplement pour mieux "valoriser" (traduisez "marchandiser") lesdits contenus hier encore sous-exploités. Tout le billet de Danny Sullivan décrit très précisément cette double logique.
Plus globalement l’intérêt pour Google c’est de mettre ses services en cohérence, en correspondance avec la lame de fond qui agite la tectonique documentaire à l’échelle de la planète : celle de la dérive inverse des continents documentaires, qui sont en passe de fusionner autour des 3 sphères de l’intime, du privé et du public (voir ce billet pour un petit schéma explicatif).
Nous avons donc :
- une algorithmie impliquante
- des contenus non plus dupliqués ou répliqués mais "fusionnés" (Universal search)
- des continents documentaires réunifiés
Le tout avec comme seule ligne de mire, la déterminée volonté d’optimiser encore davantage la marchandisation de toute unité documentaire recensée, quelle que soit sa sphère d’appartenance d’origine (publique, prive, intime) et sa nature médiatique propre (image, son, vidéo, page web, chapitre de livre, etc…).
Une marchandisation tautologique qui risque à terme de s’effondrer sous son propre poids.
Updates :
- Voir aussi l’analyse et les nombreux liens du billet de Jean-Marie Le Ray
- celle de Read/WriteWeb
- celle d’Alexandre Serres sur UrfistInfos
- celle de l’Atelier
- celle de Didier Durand
- Zorgloob (pour les plus pressés, rien que les fonctionalités)
- celle de John Battelle (qui rappelle utilement qu’au delà du Buzz, Ask et A9 d’Amazon font cela depuis longtemps)
- celle de Sébastien Billard (qui doute comme moi de l’intérêt de la chose)
- celle de GoogleInside (qui confirme l’intérêt économique de la chose)
- celle de Christophe Asselin
- et pour sortir du Googlecentrisme et remettre cette information dans le contexte de la stratégie de diversification des grands acteurs du web : Fred Cavazza
Ca ressemble beaucoup au récent Yahoo! oneSearch pour mobile 😮 »
Bonjour,
Votre angoisse est intéressante et je l’évoque dans un billet :
http://www.referencement-blog.net/?49-nouveau-google-nouvelle-navigation-et-nouvel-algorithme-de-recherche-universelle
Google répond à un besoin : nous procurer un résultat adapté à une requête donnée.
Danny Sullivan, nous dit que le Universal Search a été décidé parce que les utilisateurs ne connaissaient pas la recherche verticale/spécialisée (et ne visualisait même parfois pas les OneBox présentés, de livre par exemple).
Avec ce nouvel algo, l’objectif de Google est de proposer l’information qui lui semble la plus adaptée à une recherche :
– si l’on tape Bordeaux, il doit nous proposer le site de la ville, la carte (map) et éventuellement d’autres sites autours de la ville et du vin
– si c’est « justine sade », il peut nous proposer un extrait du livre, la bio de l’auteur sur Wikipédia ou l’éventuel site de référence
– si c’est « concert « concert rachmaninov », il proposera peut être des MP3 ou des vidéos de concerts orchestrés par Karajan
Du coup, j’ai du mal à vous suivre, en quoi ce choix de regrouper sur une même page l’information est un problème ?
Je seul problème que je vois sur ce nouveau principe est qu’on ne puisse plus chercher en texte seul.
Non, finalement les réels problèmes viennent des moyens mis en œuvre par Google pour arriver à cette recherche optimale, qui comme vous l’expliquez bien tend à « fusionner autour des 3 sphères de l’intime, du privé et du public ».
Doit-on laisser le droit à Google : de conserver les données sur nos recherches ? de scanner nos flux RSS via Google Reader, nos liens dans nos mails via Gmail ou GoogleTalk, nos visites via la Google Bar, Google History ou (les cookies) DoubleClick, nos clics sur les sites via Google Analytics, le contenu de notre ordinateur via Google Desktop ?…
Quelle garantie Google nous procure sur la confidentialité à court terme et à long terme ? Et surtout comment peut-on la vérifier ? Peut-on simplement faire confiance au principe « Don’t Be Evil » ?
L’information est aujourd’hui de plus en plus précieuse, en plus d’informations publiques, Google a déjà potentiellement accès à des informations confidentielles, qui peuvent être utilisé contre une entreprise ou même mettre à mal la réputation d’individus médiatiques (politiques, chef d’entreprises…).
Et finalement la question est de savoir du fait de dérives possibles, où doit-on s’arrêter dans notre mise en ligne de notre vie ?
La meilleure solution serait sans doute que Yahoo et Microsoft, redeviennent de réels concurrents, pour éviter le « tout Google », mais beaucoup de ses outils sont tellement plus efficace que ceux de la concurrence, que je ne vois pas le rattrapage d’ici tôt.
Alex> merci de votre commentaire. Au delà des exemples que vous choisissez (sade, bordeaux, rachmaninoff), ce qui me pose problème dans cette recherche « universelle » c’est précisément la notion de pertinence. Disons pour aller vite, que cette notion n’existe pas en tant que telle : ce qui est pertinent pour vous (ex sur Bordeaux : le vin) ne l’est pas forcément pour moi (bordeaux : girondins, club de foot). Je voie mal comment un algorithme pourrait d’ailleurs améliorer la pertinence en rajoutant du « bruit ». Ce qui m’amène à mon second point, cette recherche universelle n’est qu’un outil marketing qui permettra à Google de retravailler la « notoriété/visibilité » de certains de ses contenus effectivement actuellement moins visibles (les livres, les images, les vidéos) et ce faisant de mieux les monétiser. Par ailleurs je ne voie rien « de mal » dans cette course à la monétisation. Google est une société commerciale et la publicité contextuelle est son coeur de business. Mais du point de vue des usages et des usagers (que je connais un peu du point de vue théorique – mes recherches – et du point de vue pratique – mes étudiants) je reste convaincu que cela va ajouter de la confusion, de l’entropie, en mixant des contenus dont le cantonnement au sein de silos fléchés (ici les images, ici les livres, ici les vidéos) augmentait la pertinence intrinsèque.
J’espère avoir été clair 🙁
Sinon, je retente ma comparaison avec le supermarché :
Exemple 1 : trouvez vous plus facilement votre vin préféré chez le caviste du coin, ou dans une grande surface ?
Exemple 2 : trouveriez vous l’intérêt de votre vin préféré augmenté si on vous proposait au milieu du rayon Tariquet des vidéos, des ouvrages ou des films promotionnels ? Et surtout, le trouveriez vous (votre vin préféré) PLUS FACILEMENT ? De manière PLUS PERTINENTE ?
Bonjour Olivier,
La notion de pertinence est bien entendu relative en fonction des individus et aussi en fonction de son attente au moment de la recherche (un jour je tapes bordeaux pour la ville, un autre pour le vin). Mais si je tapes Bordeaux pour avoir les Girondins, il est normal que je sois déçu par les moteurs 😀
Pour ce qui est du mixe des types d’informations, c’était inéluctable grâce à l’ADSL, qui à permit l’enrichissement du web avec des supports plus lourds (vidéo, son..).
S’il y a une cohérence, il n’y a pas de logique particulière à ce qu’une information de type texte, soit séparée d’une vidéo ou d’un mp3.
Et si je reprends l’image du caviste, je pourrais être très heureux de trouver une vidéo ou un livre sur mon vignoble préféré 😀
Ce qui est très différent d’une réelle promotion parasitaire, comme sur le nouveau metamoteur de free, ou les pubs (AdSense…) sont référencés directement dans le corps des résultats, sans l’informer clairement (juste un texte, pas de traditionnel fond de couleur) : http://search.free.fr/infospace/infospace.pl?qs=bordeaux
Pour conclure, j’accepte très bien le fait que Google considère que le « Web » ne soit pas uniquement du texte, car c’est de plus en plus vrai, comme le prouve le succès de Youtube/Daily Motion ou encore des Podcasts.
Ce qui me gène plus, c’est que si le « Web » regroupe tous les types d’informations, comment fait-on pour rechercher que du texte ? Car même si pour l’instant, je n’ai pas rencontré de requêtes où les vidéos spamment les premières places, cela doit arriver ce qui peut devenir énervant surtout si l’on n’en souhaite pas.
A quand la recherche verticale Google WebText ? 😀
Bonjour,
Cette discussion me fait penser qu’au début Google va peut-être proposer son nouveau mode de présentation des résultats par défaut, juste pour booster le buzz (expression typiquement française), avant de permettre à l’utilisateur de choisir le mode d’affichage qu’il préfère, soit via l’interface personnalisée d’iGoogle, soit en activant/désactivant un lien sur la page principale, un peu comme lors de la dernière mutation, plus graphique, où il était possible d’avoir le mode de présentation traditionnel ou la nouvelle mouture. Ce qui fait que le système serait transparent pour l’utilisateur et qu’il fournirait même des indications plutôt précises à Google sur le degré d’acceptation de sa récente « solution » par les internautes.
Jean-Marie
Jean-Marie> tu sais aussi bien que moi à quel point il est difficile de lire dans les entrailles de la bête. Mais j’avoue que ton scénario me plaît assez. En poussant la logique jusqu’au bout (cette logique de monétisation de contenus jusqu’ici sous-exploités), je pense même que Google se servira de cette fonction pour profiler encore davantage l’internaute selon le type de service qu’il utilise, permettant ainsi aux annonceurs de mieux cibler leurs prospects et à la régie de mieux engranger les bénéfices.
Olivier, ta réponse va dans le sens d’un de mes derniers billets 🙂
http://adscriptum.blogspot.com/2007/05/google-serial-profiler.html
Jean-Marie