Loi du marché et loi d’inertie. (Chapitre 2)

"Les algorithmies sont arrivées à maturité. On ne fera probablement jamais mieux que Google. Non pas que cela ne
soit pas "algorithmiquement" possible de faire mieux. Mais le coût en
termes d’investissements et de développements est probablement d’ores
et déjà trop lourd au regard du très mince gain qualitatif que cela
pourrait amener.
"
Extrait de mon précédent billet sur l’ouverture de la base Alexa. Que voilà un étrange augure ou une bien péremptoire affirmation de ma part. Alors merci de vos commentaires auxquels il serait dommage de ne répondre qu’en commentaire. D’où ce nouveau billet. Ma tournure de phrase nécessite quelques précisions.
Primo : il ne s’agit pas de remettre en question toute la richesse de la recherche et développement dans le domaine de l’ingénierie linguistique (notamment). Il est évident que les algorithmies peuvent et doivent être améliorées. Il existe nécessairement de nouvelles fonctionnalités, de nouvelles manières d’optimiser les processus de recherche, les temps de calcul, les interfaces de visualisation, la clusterisation, le traitement multilingue, etc, etc, etc. MAIS.
Mais, deuxio, je continue de penser que du côté des très grands (GYM) les jeux sont faits et les "benchmarks" établis. Pour Yahoo! (cf quelques billets de Jean), la pertinence et les problèmes de redondance ou de liens brisés font quasiment jeu égal avec Google, qui reste, je le maintiens mais je n’invente rien en le maintenant, globalement le meilleur et le plus pertinent. Côté MSN en revanche, des investissements massifs sont en cours pour "rattraper" le retard sur les critères de pertinence et l’algorithmie. Mais une fois encore, le mètre-étalon est et reste Google, et je fais le pari (je n’ai pas les moyens de faire plus que cela), qu’une fois que ces deux là auront aligné la qualité de leurs résultats sur Google (le chemin sera peut être encore long), ils stopperont les frais. Yahoo! a d’ailleurs déjà commencé en marquant chaque jour davantage son orientation (historique autant que commerciale) "portail et social search".
Tout cela ne veut pas dire que l’annonce d’Alexa ne marque pas un tournant. Mais que l’orientation prise au sortir de celui-ci ne sera pas forcément celle qui apparaît comme la plus visible. Comme le souligne Michaël, les développeurs et Geeks en tous genres de tous les pays disposent effectivement désormais d’un nouveau bac à sable. Et ce ne sont pas les "châteaux en espagne" qui manquent à bâtir. Merci également à Michaël d’attirer notre attention (la mienne et la votre je ne parle pas de moi au pluriel 😉 sur la dualité intrinsèque à ce modèle du "libre" sur le web (mais ailleurs aussi), qui reste du "donnant-donnant" : je vous donne un corpus, vous me donnez vos compétences en développement. Le "gain" maximal n’est là non plus pas nécessairement du côté où on l’attend.
Concernant les remarques de Jean-Michel : "Il est imprudent d’affirmer tout de go, sans étude sérieuse, qu’on est
arrivé à un palier dans les algorithmes de recherche. Ceux-ci vont
vraisemblablement, par exemple, continuer d’évoluer avec l’évolution
des corpus.
" Je vais pourtant persister dans l’imprudence.
Et peut-être même virer à l’impudence (;-) en y persistant sans convoquer pour autant "d’étude sérieuse". Envisageons pour cela "uniquement" la recherche grand public, c’est à dire pensée en termes d’accès et non de corpus (dichotomie, je l’admets, délicate). C’est à dire, excluons pour les besoins de l’argumentaire, les corpus dédiés ou spécialisés (comme par exemple les catalogues de bibliothèques … ). Dans ce cas, et dans ce cas uniquement, je continue de penser que nous ne verrons pas grand chose de nouveau du côté de l’algorithmie pure. Les principales évolutions technologiques que l’on peut dès aujourd’hui observer (et pour celles-ci comme pour les autres – que je connais moins – les études sérieuses ne manquent pas), se font "à la marge". Elles concernent :

  • le traitement sémantique (web sémantique et ontologies pour les corpus dédiés, donc hors de l’angle d’analyse choisi pour ce billet, ou folksonomies associées aux contenus pour les corpus généralistes en termes d’accès – auxdits contenus)
  • la personnalisation (géolocalisation, mashups – couplage d’applications- informatique "nomade" et "ubiquitaire" ou "pervasive")
  • et la bascule d’un environnement (web) dans un autre (base de donnée) avec ce que cela suppose de transfert d’habitus (documentaires) et de techniques (de classification) (notez bien que j’ai dit "techniques" et non "technologies")

La ligne directrice qui va conditionner l’ensemble de ces développements à venir (en tout cas pour les acteurs qui se partagent le gâteau) est celle du traitement de la valeur marchande desdits contenus au regard des habitudes de consommation des usagers d’internet. Ce n’est certes pas particulièrement réjouissant, mais pour le Google d’aujourd’hui ou pour celui de demain, cela ne me semble pas faire l’ombre d’un doute. Sur cette ligne, chacun choisira ses options, ses stratégies et ses priorités selon sa propre histoire et ses propres moyens d’engloutissement de sociétés et des technologies innovantes (et peut être aussi probablement selon la pression de ses actionnaires). Pour le dire autrement :

  • côté recherche, on sait ce qui marche : Google.
  • côté business, on le sait également : les petites annonces
  • côté (business)modèle il faudrait être aveugle pour ne pas le voir : publicité contextuelle
  • côté services : des applications locales (mashups), pour des services hyperlocalisés (Craigslist et autres) avec un accès personnalisé via des portails généralistes en jouant sur l’identification persistante et un public captif.
  • Pour le reste : Wall Street. Quand ça marche on achète (Del.icio.us, Keyhole, KlickR, etc …).  Et si ce n’est pas assez, on ouvre ou on laisse ouvrir avant d’acheter (Windows "Live", Folksonomies, tags, accès …) Et quand on peut, autant que faire se peut, on achète des "trucs" ouverts, pour faire jouer l’effet de masse (je n’ai pas dit pour "se jouer des masses", cf la sagesse des foules)

Dernier point (jusqu’au prochain commentaire) de (sympathique) désaccord avec Jean-Michel : "déstabilisation" certainement, mais "faire bouger les acteurs", certainement pas. Les acteurs dont on parle ici se caractérisent d’abord par leur inertie. "Inertie" qui rappelons-le est une "force" et ne signifie pas immobilisme. "Tout corps persévère dans l’état de repos ou de mouvement uniforme
en ligne droite dans lequel il se trouve, à moins que quelque force  n’agisse sur lui, et ne le contraigne à changer d’état".
Chacun des acteurs avance d’abord sous l’effet de sa propre masse. Et je ne crois pas que l’initiative d’Amazon/Alexa vienne bouleverser autre chose que sa propre inertie (mais cela viendra effectivement probablement la conforter et l’amener à un niveau de rivalité avec celle de ses concurrents). Je crois enfin (et je crois que là dessus nous serons d’accord), que la seule force qui peut aujourd’hui (demain ?) amener à modifier l’inertie propre de ces mastodontes sera non pas celle des contenus commerciaux mais bien celle des contenus et des biens culturels.

Voir aussi : La fin de la recherche comme technologie. (Chapitre 1)

2 commentaires pour “Loi du marché et loi d’inertie. (Chapitre 2)

  1. Olivier, tu joues sur les mots.
    Si on appelle inertie, l’activité débordante de Google, les réactions de MSN, les initiatives de Yahoo !, on est d’accord.. mais c’est une inertie soubressautante ;-). Et, de plus, l’initiative d’Amazon vise de nouveaux entrants.
    Si on veut dire qu’il n’y a plus gd chose à découvrir du côté du pagerank pour l’algorithmie. Je ne suis pas spécialiste, mais c’est probable et ce n’est pas d’hier. Mais dire que l’histoire de la recherche automatique d’info s’arrête là, y compris pour les pages ordinaires, ne me convainc vraiment pas.
    Enfin et surtout, sans doute bien des avancées récentes et décisives sont repérables sur la configuration du marché et les modèles d’affaires correspondants. Mais de là à prétendre que le modèle de médias est stabilisé, c’est au mieux une intuition, que rien ne peut vérifier aujourd’hui. Tant qu’à spéculer sur l’avenir, je tiendrai plutôt le pari que l’histoire de sa configuration s’écrit sous nos yeux, et qu’elle est loin d’être terminée.

  2. Insistez dans l’imprudence 🙂 Je partage entièrement votre analyse et elle n’est pas forcément en contradiction avec les autres commentaires critiques. Personne ne dit que l’innovation va s’arréter mais que les enjeux se sont déplacés. Il y a de nombreux moteurs spécialisés à inventer mais pour satisfaire le plus grand nombre la barrière d’entrée est désormais très haute. Si Google peut être déstabilisé ce n’est pas par la technologie mais par l’impossibilité de gagner de nouvelles parts de marché.
    Côté modèle économique vous avez oublié les « paid listings » c’est à dire l’inclusion payante des bases de données dans les index des moteurs. Une source de revenus souvent oubliée (normal c’est invisible pour l’utilisateur) mais qui fait parti de la stratégie de Yahoo et, le savez-vous, de Voila.fr. Un service que ne propose pas Google qui souhaite préserver l’intégrié de son index.
    « Ad is content » disiez-vous …

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Articles similaires

Commencez à saisir votre recherche ci-dessus et pressez Entrée pour rechercher. ESC pour annuler.

Retour en haut