Le monde d’après (Facebook et Google)

Une étude et un éditorial viennent simultanément d'annoncer la mort possiblement prochaine des 2 géants que sont Google et Facebook.

Après Google ben … y'aura Google.

L'éditorial est celui de Mark Cuban, consultable ici et chroniqué et résumé en français par là. Mark Cuban est un milliardaire américain qui n'a rien d'un grand gourou de la technologie mais son édito me semble intéressant sur un point d'usage dont je fais moi-même quotidiennement l'expérience : un grand nombre de requêtes ou de recherches d'infos se déportent de plus en plus vers des écosystèmes comme Twitter (principalement) et Facebook (accessoirement) et n'entrent donc plus dans la sphère Google. Il conclut ensuite que si Google n'indexe pas exhaustivement et efficacement ces écosystèmes fermés (Facebook, Twitter mais aussi TumblR, Pinterest, Snapchat, etc.) il va rapidement devenir sans intérêt, en plus d'être déjà très en retard (toujours selon M. Cuban). Bon là pour le coup je ne suis pas d'accord du tout. D'abord parce que Google indexe bien un grand nombre des sites mentionnés ci-dessus (même s'il lui faut obtenir l'accord desdits sites qui y ont – pour l'instant – intérêt), et ensuite parce que Google développe également deuis longtemps ses propres biotopes (Blogger, Google+, Youtube, etc.), et qu'en outre, il serait malvenu de prétendre qu'il est à la ramasse côté recherche et développement.

Mais l'édito de Mark Cuban a le mérite de nous rappeler que Google n'affiche plus le "search" comme point central de son activité (l'a-t-il d'ailleurs jamais réellement fait à l'exception des 3 ou 4 années suivant son lancement ?). Le coeur d'activité de Google n'est pas la recherche mais la publicité. Google est une régie publicitaire. Et si Google peut apparaître légèrement "en retard" ou ne disposant pas d'équivalent de l'ensemble des sites mentionnés par Mark Cuban, c'est parce que ces sites là sont, du point de vue d'une régie publicitaire, beaucoup plus difficiles à monétiser et à rentabiliser qu'un site de partage de vidéos ou une base de donnée de pages web associée à une régie Adwords, et c'est surtout parce que nos usages ont considérablement migrés vers des applications mobiles au détriment du web (mais sur ce dernier point, Google a rattrapé le retard qu'il accusait il y a quelques années de cela, via son OS Androïd et le magasin d'application dédié). De fait, Google est de moins en moins un environnement dédié (à la recherche d'info) et de plus en plus un environnement "matriciel", englobant (cf la métaphore du cercle dont le centre est partout et la circonférence nulle part).

Google Hard. En résumé, non Google n'est pas mort. <désolé> Il bande passante encore. </pas pu résister> Mais il me semble probable que le moteur de recherche Google s'efface de plus en plus des premières loges stratégiques du développement de la firme pour céder la place à des logiques pro domo(tiques). Eric Schmidt confirmait d'ailleurs récemment ce qui pourrait ressembler à un complet changement de paradigme (cf l'analyse de Jean-Michel Salaun sur le Vu-Lu-Su) pour Google : le positionnement de la firme sur le secteur du hardware (via l'acquisition de Motorola et la gamme Nexus).

WTF. What The Facebook ?

L'étude dont tout le monde parle c'est celle-là : "Epidemiological modeling of onlline social networks dynamics (.pdf)". Je précise – pour les puristes et/ou les tâtillons et/ou ceux qui n'ont toujours rien compris à ce qu'était l'auto-archivage et l'open access et l'interdisciplinarité – je précise que si l'étude semble tout à fait sérieuse (je l'ai lue), elle est déjà très critiquée (mais à mon avis pour de très mauvaises raisons) : elle n'a pas été publiée dans une revue (donc pas officiellement validée par des pairs dans un comité de lecture d'une revue bien comme il faut et gnagnagni et gnagnagna) mais présentée à un colloque de l'université Princeton en 2012 (donc validée par les pairs organisateurs du colloque à Princeton, donc pas vraiment des branleurs non plus) et déposée sur Arxiv (un site pas vraiment connu pour collectionner les hoax et les blagues carambar). Et les deux étudiants de Princeton viennent du département d'ingénierie aérospatiale, ce qui semble poser problème à certains, mais pas à moi puisque leur article se contente d'appliquer un modèle statistique et mathématique issu de l'épidémiologie mais que nombre de chercheurs et d'ingénieurs dans tout un tas d'autres champs scientifiques maîtrisent et utilisent (sans compter que depuis quelques siècles il existe un truc qui s'appelle l'interdisciplinarité …). Bref.

Le pitch : utiliser des modèles mathématiques et statistiques de propagation virale issus de l'épidémiologie, et les appliquer aux réseaux sociaux pour analyser et prédire (modèle mathématique) l'ampleur possible de phénomènes de désertion desdits réseaux sociaux. En gros : observer combien d'utilisateurs quittent ou ont quitté Facebook, présupposer que si "n" utilisateurs quittent le réseau social aujourd'hui, "n" de leurs "amis" le quitteront également demain, se servir d'un cas d'école avéré qui est la désertion de feu MySpace en tant que "groupe témoin" et adapter le modéle épidémiologique de contagion virale à ce cas d'étude.

Et le résultat se passe de commentaires : Facebook a chopé la peste bubonique, il perdra 80% de ses utilisateurs (soit 800 millions) entre 2015 et 2017.

Princeton

Princeton2

(Source des graphiques : http://technorati.com/social-media/article/princeton-engineers-predict-facebook-may-lose/)

Alors oui on peut toujours pinailler, mais avant de faire un procès d'intention aux auteurs de l'étude, on ferait bien de lire réellement leur article et leur conclusion puisqu'eux-mêmes soulignent les défauts du modèle de prédiction mathématique utilisé, les nombreux ajustements qui furent nécessaires, et les nombreux biais qui subsistent encore. N'en reste pas moins que si la réalité est heureusement partiellement irréductible à un modèle de prédictibilité mathématique, il serait bien sot de considérer cette étude comme dénuée de sens. La "viralité" n'est pas qu'un mot-valise pour gargarisme bucaux marketophiles, et si elle est trop souvent convoquée sans contexte pour le moindre dépassement du million de vues d'une vidéo de chat qui pète, il est heureux qu'on la retrouve également plus sérieusement et scientifiquement utilisée dans l'analyse de phénomènes d'adoption et/ou de désertion d'écosystèmes numériques complexes.

Le milliard … de moins ?

Il y a effectivement une possibilité non-négligeable pour que le fameux prochain milliard, soit pour l'un des écosystèmes qui dominent actuellement nos pratiques connectées, le prochain milliard … de moins. En tout cas sur le web. Les usages se déportant massivement vers la couche des applications. Mais nous en reparlerons dans un prochain billet …

<Mise à jour du surlendemain> L'étude continue de susciter réactions et controverses. La plus fine et la plus maine d'entre elles est à lire sur la page Facebook de Mike Develin (Data Scientist chez … Facebook) et est co-signée par Lada Adamic dont je vous avais déjà parlé au sujet d'une autre étude, également sujette à controverse. Les deux compères se sont amusés à reprendre à la hache la supposée méthodologie de l'étude indiquant la possible mort de Facebook pour conclure à celle tout aussi prochaine de l'université de Princeton à laquelle appartiennent les deux étudiants de la première étude. C'est malin, bien tourné, bien enveloppé et pour ceux qui n'ont pas pris le temps de lire la première étude, cela semble la discréditer entièrement, Lada Adamic et Mike Develin concluant ainsi leur billet :

"Although this research has not yet been peer-reviewed, every Like for this post counts as a peer review. Start reviewing!

P.S. (…) As data scientists, we wanted to give a fun reminder that not all research is created equal – and some methods of analysis lead to pretty crazy conclusions."

Fermez le ban. Pourtant je maintiens que l'étude annonçant la possible mort de Facebook suite à un exode massif de ses utilisateurs est parfaitement crédible.

Je le maintiens car je maintiens qu'aucun chercheur (sauf exception caricaturale mais qui représente epsilon du volume d'articles disponibles dans ledit ArXiv) ne dépose son article dans une base comme ArXiv si ledit article est truffé d'âneries et d'erreurs, et ce pour une raison d'auto-régulation largement étayée dans la littérature sociologique sur les communautés de recherche : en termes plus simples, cela veut dire que si tu déposes un article bidon dans une base d'archive ouverte tu vas te faire dézinguer rapidos et tu seras grillé pour le restant de tes jours si quelqu'un le découvre (et quelqu'un le découvrira forcément). Donc y compris pour les articles "non publiés dans des revues" (vu que la base arXiv comporte AUSSI plein d'articles publiés dans des revues, son principe étant celui de l'auto-archivage), et particulièrement pour de jeunes chercheurs, tout article déposé bénéficie du feu vert au moins tacite de pairs (là en l'occurence, le comité éditorial du colloque organisé à l'université de Princeton).

Je le maintiens car à la lecture de l'article, les auteurs indiquent clairement les insuffisances et limites méthodologiques liés à leur analyse.

Je le maintiens car les auteurs ne disent pas que Facebook va perdre 80% de ses utilisateurs entre 2015 et 2017, mais que si leur modèle est validé, leur modèle indique que Facebook pourrait alors perdre 80% de ses utilisateurs. Ceux pour qui la différence entre ces deux énoncés n'est pas flagrante peuvent continuer tranquillement à lire leur horoscope comme s'il était fondé sur une vérité mathématique absolue et objectivable.

Je le maintiens car cet article n'est pas intéressant du seul fait de sa conclusion (Facebook pourrait perdre tous ses utilisateurs et fermer boutique) mais cet article est intéressant parce qu'il propose un modèle mathématique et statistique (perfectible, améliorable, discutable) et que ce modèle permet à son tour de rendre compte de l'une des clés essentielles de nos écosystèmes numériques : c'est à dire les logiques d'adoption et d'abandon qui conditionnent leur existence même.

Je le maintiens enfin car l'usage des "big data" n'est ni ne doit rester l'apanage de ceux qui seuls ont la clé du coffre-fort des données collectés ou sont autorisés à y accéder par les firmes elles-mêmes (#bisous Lada Adamic et Mike Develin) mais doit pouvoir infuser dans l'ensemble des champs scientifiques désirant accéder à ces données.

Je le maintiens même si les deux jeunes chercheurs ont pour leur étude sur Facebook se servir de données issues de Google et même si seul le modèle mathématique et statistique qu'ils utilisent est donc un modèle "scientifique". Je le maintiens car ce que nous rappelle aussi cet article c'est qu'il ne pourra pas y avoir de scientificité ou d'objectivité à l'heure des Big Data tant que les données resteront sous clé ou sous accès contrôlé par les firmes les collectant. Je le maintiens car j'affirme depuis longtemps qu'au même titre que la question de la maîtrise des corpus, celle de la maîtrise des données (leur accès, leur origine, leur absence de biais, leur exhaustivité et/ou leur représentativité, etc.) est pus que jamais cruciale si l'on ne veut pas que la science de demain sur les écosystèmes numériques ne ressemble à la pseudo-analyse sondagière des instituts bidons qui nous abreuvent à chaque échéance électorale d'interprétations libres présentées comme autant d'analyses objectives.

Je le maintiens et j'invite Lada Adamic et Mike Develin à mettre à disposition de l'ensemble de la communauté scientifique les données qu'ils ont utilisé pour leur propre article, afin que chacun puisse y faire tourner ses modèles, épidémiologiques ou non.

</Mise à jour du surlendemain>

 

A ses yeux, Google est désormais en retard sur l’information par rapport à Twitter, Instagram, Tumblr, Pinterest et, dans une moindre mesure, Facebook. Alors que, il y a quelques années encore, toutes les informations importantes étaient mises en ligne sur un site indexé par Google, Cuban considère que les réseaux sociaux sont devenus le premier champ d’expression publique et surpassent donc l’entreprise dirigée par Larry Page dans le traitement de l’information en temps réel. – See more at: http://www.superception.fr/2014/01/21/le-moteur-de-recherche-de-google-est-il-depasse/#sthash.0N6pE7dv.dpuf
A ses yeux, Google est désormais en retard sur l’information par rapport à Twitter, Instagram, Tumblr, Pinterest et, dans une moindre mesure, Facebook. Alors que, il y a quelques années encore, toutes les informations importantes étaient mises en ligne sur un site indexé par Google, Cuban considère que les réseaux sociaux sont devenus le premier champ d’expression publique et surpassent donc l’entreprise dirigée par Larry Page dans le traitement de l’information en temps réel. – See more at: http://www.superception.fr/2014/01/21/le-moteur-de-recherche-de-google-est-il-depasse/#sthash.0N6pE7dv.dpuf
A ses yeux, Google est désormais en retard sur l’information par rapport à Twitter, Instagram, Tumblr, Pinterest et, dans une moindre mesure, Facebook. Alors que, il y a quelques années encore, toutes les informations importantes étaient mises en ligne sur un site indexé par Google, Cuban considère que les réseaux sociaux sont devenus le premier champ d’expression publique et surpassent donc l’entreprise dirigée par Larry Page dans le traitement de l’information en temps réel. – See more at: http://www.superception.fr/2014/01/21/le-moteur-de-recherche-de-google-est-il-depasse/#sthash.0N6pE7dv.dpuf

4 commentaires pour “Le monde d’après (Facebook et Google)

  1. Bonsoir,
    Je suis assez sidéré par cette étude, du moins ce que j’en lis ici (je n’ai pas eu le courage de plonger dans l’étude elle-même).
    Ce qui m’intrigue est cette référence aux modèles épidémiologiques. En effet, si l’épidémiologie avait été aussi développée au XVIe siècle, n’y aurait-il pas eu un Olivius Ertscheidus pour calculer de telles corrélations et en tirer la conclusion que oui, définitivement, le livre imprimé n’en avait plus pour longtemps ?

  2. Bonsoir Bertrand,
    je m’étonne de vous voir ainsi revêtir les habits du troll. Je ne vois pas ce que le livre imprimé vient faire dans le schmilblick. L’usage des modélisations de propagation virale dans différents champs scientifiques est simplement assez courante (je vous laisse vérifier). Et dans le cas d’espèce elle nous permet de réfléchir sur des scénarios. Rien de plus.

  3. Je ne suis pas voyant (sans quoi j’aurais les chiffres du loto du prochain tirage et là je ferais plutôt ma valise au lieu de lire le web — mais bref).
    Je n’ai donc pas d’avis sur le fait de savoir si oui ou non Facebook va perdre un milliard d’usagers d’un coup.
    Par contre, je pense que c’est possible, vraiment, à cause de l’effet bistrot : quand tous tes potes traînent dans un troquet, tu te dis qu’ils ne changeront jamais de troquet. Mais si un certain nombre d’entre eux quittent le troquet pour un autre rade, à un moment de bascule, tu changes de rade aussi — c’est une autre vision de la viralité qui peut corroborer la prédiction du modèle mathématique ci-dessus évoqué.
    L’effet bistrot marche dans l’autre sens et explique pourquoi il est difficile de concurrencer un truc comme Facebook : si tous tes potes traînent dans un troquet, ben tu y traînes aussi même si tu ne l’aimes pas, juste parce que tes potes y sont, dans ce bistrot. Et donc, les autres rades doivent ramer pour attirer les gens chez eux — mais là aussi, à partir d’un certain point de bascule, ben, ça bascule.
    Accessoirement, l’effet bistrot marche aussi pour les supports de lecture : quand tout le monde autour de toi utilise un support, à un certain moment, tu finis par utiliser le même support pour X raisons dont la praticité des échanges et la pression sociale — et le livre imprimé pourrait donc tout à fait ne plus en avoir plus longtemps, c’est juste une question de bascule.
    La question finale est « c’est où le point de bascule » ? Je ne sais pas, mais je vais y réfléchir. Avec mes potes.
    Au troquet. Le Web est plein de troquets.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Articles similaires

Commencez à saisir votre recherche ci-dessus et pressez Entrée pour rechercher. ESC pour annuler.

Retour en haut