Les moteurs de recherche sont les premiers auxiliaires de notre accès au net. Ceux-ci comptent déjà nombre de profondes mutations, tant en terme de technologie qu'en terme de modèle économique et de poids sur des pans entiers de l'activité du "monde réel". Ils ont successivement joué le rôle :
- de moteurs d'accès à des contenus,
- d'indicateurs de popularité des mêmes contenus (algorithme PageRank),
- de moteurs de recommandation et de suggestion (fonction "refine search", auto-complétion, etc …)
- d'outils d'indexation en temps réel (World Live Web)
- pour dernièrement intégrer progressivement un part de plus en plus importante de sémantique dans l'affichage (microformats) et dans la recherche des contenus (web sémantisé),
- tout en restant focalisés sur le carré magique des usages du web (Shopping. Health. Travel. Local), en valorisant et monétisant au maximum les requêtes transactionnelles.
Les mêmes moteurs subissent aujourd'hui une double mutation : celle de l'indexation des profils (la jonction entre moteurs de recherche et réseau sociaux se fera sans aucun doute très prochainement, posant le double problème d'un pan-catalogue des individualités humaines et de la pertinence des profils), et celle de l'indexation du micro-net et de ses micro-contenus (Twitter notamment). Là encore, et indépendamment de la sauce économique à laquelle elle s'accomodera (rachat, intégration), l'intégration de ces micro-contenus ne laisse aucun doute. Elle a d'ailleurs déjà commencée :
- des moteurs dédiés existent déjà (exemple généraliste, exemple dédié …)
- les grands acteurs (Google, Yahoo, Microsoft) ne cachent pas leurs ambitions et intègrent ou cherchent à intégrer les tweets et autres micro-contenus dans leur interface et leur algorithme de recherche.
L'intégration se fera donc. La question est de savoir comment et pourquoi.
Sur le comment, globalement deux stratégies sont possibles : soit en "isolant" les tweets dans une partie dédiée du moteur de recherche (ce que fit Google avec les blogs en leur réservant un moteur dédié : blogsearch.google.com), soit en les intégrant et en les mixant à l'ensemble des autres résultats. La tendance étant massivement à la recherche universelle et à la fusion de l'ensemble des résultats de recherche, on peut légitimement supposer que c'est la première voie qui sera retenue.
Oui mais à vouloir tout mixer (contenus web, micro-messages, vidéos, news, images …) on risque la confusion et cela nécessite un art avéré de l'interfaçage (la fameuse "User Experience"). Il est donc également probable que la seconde stratégie soit finalement retenue (= isoler ces contenus dans un onglet et/ou un espace dédié). Bref, on n'en sait rien et on attendra de voir.
Sur le comment toujours, mais dans son versant technique, là encore on notera deux possibilités : soit intégrer progressivement les tweets de quelques comptes (personnes, entreprises ou institutions) "labellisés" comme influents (l'approche qu'à visiblement choisi Microsoft). Soit (ce que fera certainement Google), appliquer la mécanique bien rôdée du PageRank aux Tweets de la même manière qu'aux autres contenus mais avec des niveaux de pondération légèrement différents : les backlinks (liens entrants) pouvant être "remplacés" par les RT, la popularité d'un compte Twitter étant aisément repérable au seul nombre de ses "followers" ou à la mention de son nom (précédé de l'arobase) dans l'ensemble des Tweets.
Des moteurs de recherche aux moteurs de signaux.
Ce qui est aujourd'hui en train de changer dans les notre expérience quotidienne des moteurs de recherche c'est la nature même de la relation qui nous lie à eux. Ils ne sont plus les seuls intermédiaires du début, entre "nous" et "des" contenus. Ils sont devenus des auxiliaires, des adjuvants, des assistants personnels à l'omniscience de plus en plus pregnante (via la personnalisation et la dérive des continents documentaires). Demain, quand l'intégration du micro-net sera passée dans les usages courants (comme l'est l'intégration des news, des vidéos ou des images), demain nous les utiliserons non plus comme moteurs de recherche mais comme moteurs de signaux. Nous n'y chercherons plus des contenus (c'était hier), nous n'y attendrons plus simplement une recommandation et une logique de prescription (c'est aujourd'hui), mais nous voudrons y trouver une qualification de ces contenus. Une qualification qui se voudra la symbiose entre des métriques sociales et comptables.
Un petit Tweet pour un grand bouleversement ?
C'est aux moteurs capables de nous livrer la meilleure qualification que nous souscrirons. Pour y parvenir, la prochaine mue des moteurs de recherche en fera des moteurs de signaux (un Tweet, une modification d'un profil, d'un statut …). Et particulièrement de signaux "faibles". Ce n'est d'ailleurs pas un hasard si en évoquant les projets de Google en la matière (lancement d'un service de Microblogging search), Marissa Mayer parle de "Clues" (indices) et rapproche cela du Google Trends (tendances). Indices, tendances, signaux. Le meilleur moteur sera celui capable de repérer ces signaux faibles. Ce qui – si mon analyse est avérée … – serait à l'échelle de l'histoire des moteurs, un gigantesque bouleversement. L'ensemble des moteurs fonctionnent en effet aujourd'hui sur leur capacité à entériner des signaux forts. Toute leur algorithmie est ainsi pensée : afficher dans les premiers résultats les sites/articles/contenus les plus visibles, les plus cités, les plus commentés, les plus débattus, les plus liés. Depuis l'invention de la bibliométrie dont les fondements ont été implémentés dans l'algorithme du Pagerank, toute l'histoire des moteurs de recherche (et du succès de Google) se tient dans leur capacité à isoler le plus pregnant, le plus visible, le plus "émergé". Une visibilité que nous ne pouvons bien sûr pas "oculairement" percevoir, mais qui est (relativement) simple, limpide, perceptible et "révélable" pour les crawlers du web, comme les phéromones sont naturellement perceptibles aux fourmis. Demain, il leur faudra très probablement être capables de faire l'inverse avec les mêmes critères d'excellence : c'est à dire continuer de jouer leur rôle de localisation de sources (plus personne ne retient aujourd'hui l'adresse d'un site, on tape son nom dans Google et Google, "bookmark" universel, nous livre aussitôt l'adresse du site) ET être également capables de remonter des signaux faibles, c'est à dire des occurences documentaires à faible pertinence absolue mais à forte pertinence relative.
La réalité est pourtant plus compliquée que cela. S'il est vrai que les moteurs de recherche, dans l'héritage de la bibliométrie, ont pour but d'isoler les figures et les contenus les plus "marquants", la bibliométrie (et les moteurs de recherche) a également pour fonction de révéler les réseaux de citation et de collaboration, à savoir ces auteurs, ces contenus nettement moins cités ou liés mais qui, parce qu'ils sont à un moment ou à un autre "associés" aux plus cités, acquièrent une pertinence nouvelle. Il en ira de même pour la collecte de ces signaux faibles. La révélation et l'analyse de leur pertinence aura partie liée avec les contenus et les autorités déjà constitué(e)s, déjà repéré(e)s. En cela, les réseaux sociaux et les sites de micro-blogging constituent de précieux outils de repérage.
Alors quoi ? Alors il est très probable que la prochaine bataille de la pertinence, intégrant le micro-net et ses propriétés spécifiques (fragmentation accrue de ses contenus + "autorités" de plus en plus diluées), se jouera juste en dessous de l'habituelle ligne de flottaison des navigateurs, ligne en dessous de laquelle l'essentiel des internautes ne descend presque jamais consulter les résultats, mais ligne en dessous de laquelle se niche et se nichera toujours davantage la réelle pertinence des résultats, c'est à dire l'adéquation existant entre les signaux faibles détectés et leur corrélation aux contenus et aux autorités les plus saillantes assignées à la requête. Une pertinence qui instrumentalise une apparente sérendipité comme premier auxiliaire de la recherche.
Merci pour cet article passionnant et visionnaire ! A noter aussi la tendance de Google a donner des outils de personnalisation aux internautes avec Searchwiki et l’onglet « Show Options » actuellement en test.
J’apprécie cette tendance, moi qui remplit consciencieusement le blog
http://www.signaux-faibles.fr
avec la newsletter du meme nom et avec l’autorisation de l’auteur.
Concernant la SERENPIDITE instrumentalisée par Google, ce n’est plus de la serenpidité….
Je m’explique : la serenpidité d’1 milliard d’être humains ou d’1 milliard de scripts-spider, ça devient des vraies tendances statistiques et d’ailleurs vous (tu) soulignez « l’apparente sérenpidité »
David