Google et l’algorithme de Ranganathan : la personnalité des algos

L'histoire est (relativement) connue. Avant de lancer le moteur Google, quand ils étaient encore étudiants, Serguei Brin et Larry Page ont travaillé à un projet qui permettrait de numériser les documents de la bibliothèque de Stanford. Quelques années plus tard, 6 ans après le lancement de leur moteur de recherche, le monde découvrira Google Books.

Bibliothèque mathématique.

C'est une histoire également (relativement) connue. Serguei Brin et Larry Page, lorsqu'ils étaient encore étudiants et commençaient à bosser sur l'algorithme du Pagerank ont beaucoup lu Garfield et se sont inspirés de ses travaux sur la scientométrie et la bibliométrie pour les adapter à une nouveau type de corpus : le web, transformant le comptage des "citations bibliographiques" en comptage des liens hypertextes.

Bref, dans l'ADN de Google se trouve depuis toujours une fascination – d'ailleurs compréhensible – pour tout ce qui touche au classement et à l'organisation du savoir et des connaissances. Et dans ce domaine, l'un des théoriciens dont les apports furent les plus féconds s'appelle Ranganathan. Dont on peut également supposer – mais là ce n'est qu'une supposition – que Larry et Serguei connaissaient les travaux. Ce mathématicien indien d'origine est notamment connu pour ses 5 lois de la bibliothéconomie, mais aussi – et surtout – pour avoir inventé et mis au point une forme de classification documentaire particulière : la "colon classification", première classification "à facettes", reposant (version courte) sur l'idée que les documents (bien au-delà des livres) peuvent être décrits (et classés) en fonction de 5 facettes principales :

  • leur "personnalité"
  • leur "matière"
  • leur "énergie"
  • leur inscription dans "l'espace" (= géographie)
  • leur inscription dans le "temps" (= chronologie)

Pas le temps de vous faire un cours sur Ranganathan mais je vous suggère la lecture de cet article de SavoirsCDI qui résume très bien la nature, le fonctionnement et les enjeux de la "révolution" apportée par cette nouvelle approche classificatoire.

Des facettes sémantiques.

Le web sémantique, tel qu'il est mis en place notamment par Google dans le cadre de son Knowledge Graph, repose – là encore je fais court … – sur une approche "à facettes". Pour une entité donnée (une célébrité, une période historique, une groupe de rock connu, etc …) cette entité est décrite, "éditée sémantiquement" et donc rendue accessible par les différentes "facettes" qui permettent de la décrire au mieux. Si je prends l'exemple d'une groupe de rock, nous aurons une facette "sémantique" qui permettra de lister ses différents albums, une autre facette qui donnera la liste de ses membres, une troisième la liste de ses prochains concerts, une quatrième le "courant" musical auquel il se rattache, une cinquième les groupes apparentés au même courant musical, une septième les "visuels" du groupe, etc …

Placebo

Y compris dans son approche des SERPs (Search Engine Page Results), Google n'a de cesse depuis une dizaine d'année, "d'enrichir" sémantiquement les résultats affichés à l'aide de données structurées et autres Rich Snippets, et là encore, le seul enrichissement possible relève d'une approche classificatoire à facettes.

Le processus même de "recherche" est d'ailleurs nécessairement un processus "à facettes". Ainsi la requête "Placebo" peut, selon la facette choisie, me renvoyer des images et des photos (facette Google Images), des actualités sur le groupe (facette Google News), des enregistrements sonores (facette Google Vidéos), etc …

Pour le quidam lambda, l'approche "à facette" est d'ailleurs au départ plutôt contre-intuitive. Pour vous en convaincre, souvenez-vous du bordel – c'était en 2007 – occasionné par le passage à la "recherche universelle" de Google, qui se mit du jour au lendemain à mixer dans sa page de résultat "web" à la fois des images, des vidéos, et des news. C'est la même raison, c'est à dire à la fois la complexité de sa mise en oeuvre et son corollaire contre-intuitif qui fait que la classification de Ranganathan, si elle est unanimement reconnue comme la plus efficiente de toutes, est toujours l'une des moins utilisées en bibliothèque.

Venons-en maintenant au sujet principal de ce billet. Ou presque.

De face(ttes) et de profil

Les documents (au sens large) sont donc, dans le cadre de la recherche web (chez Google et chez d'autres) décrits au moyen de différentes "facettes". Or nous avons déjà établi que les hommes étaient des documents comme les autres. Donc (syllogisme) nous pouvons en déduire que les hommes (disons "les profils") sont, dans le cadre de l'écosystème Google (mais aussi dans le cadre de l'écosystème des réseaux sociaux – Facebook) également décrits à l'aide de facettes. De facettes et de profils.

Bien. Reprenons maintenant les 5 facettes principales de la classification de Ranganathan :

  • "personnalité"
  • "matière"
  • "énergie"
  • inscription dans "l'espace" (= géographie)
  • inscription dans le "temps" (= chronologie)

Pas de souci pour ce qui est de l'inscription dans le temps : moteurs et réseaux sociaux disposent de notre historique de navigation et de requêtage. Idem pour l'inscription dans "l'espace" (recherches "locales" + géolocalisation).

La question de la "matière" est plus complexe mais pourrait s'apparenter aux types de contenus produits : s'agit-il de textes, de "status", de vidéos, de liens – relations – sociales ?

Chez Ranganathan, l'énergie désigne les relations entre les entités. "Elle s’applique aux actions, processus, fabrications, opérations. En économie, par exemple, elle regroupe les concepts de consommation, de production, de transport, de distribution, de commerce…" (source). Du côté des profils "L'énergie" pourrait alors correspondre soit au graphe relationnel unissant les différentes entités publiées, soit, sur un plan légèrement différent, à la "tonalité" des contenus que nous publions, en référence aux travaux sur l'analyse du sentiment et "l'opinion mining".

Reste enfin la question de la personnalité. La "personnalité" chez Ranganathan désigne – pour faire simple – le sujet principal du document. Si le document est un individu, on observe que la notion de "personnalité", outre qu'elle devient pertinente et opératoire au premier degré, pourrait – par exemple – désigner quelque chose s'apparentant soit aux "sujets principaux" que nous publions (= de quoi parle-t-on le plus ?), soit à notre "état d'esprit" dominant, les deux étant par ailleurs souvent lié comme a permis de le montrer récemment la fameuse "étude scientifique" menée par Facebook à l'insu de ses utilisateurs.

Bien. Venons-en maintenant au point suivant.

Brevet de personnalité.

Que devient cette facette de la "personnalité" si on l'applique non plus à des documents, non plus à des profils, mais à des algorithmes ? Un algorithme peut-il avoir de la "personnalité" ? Un "robot", un "bot", un programme peut-il avoir une "personnalité" ? A priori non. Mais a priori seulement. Car Google a publié récemment un brevet concernant précisément le développement de programmes dotés de "personnalité". Je vous en traduis le résumé : 

"Un robot (=programme) pourrait accéder au terminal d'un utilisateur pour déterminer ou identifier un certain nombre d'informations sur cet utilisateur, et le robot pourrait être configuré pour endosser une personnalité pour interagir avec l'utilisateur sur la base des informations collectées. Un robot pourrait également recevoir des données associées à l'utilisateur permettant de l'identifier, en utilisant par exemple l'empreinte vocale ou la reconnaissance faciale. Le robot pourrait alors proposer une interaction ou une réponse personnalisée, s'appuyant sur l'information recherchée par l'utilisateur. Dans certains cas, la personnalité d'un robot ou sa "personnalisation" pourrait être transférée d'un robot à un autre ; ou l'information stockée par le robot pourrait être partagée avec d'autres robots disponibles dans le Cloud."

Donc oui on parle bien de "personnalité" et non plus simplement de "personnalisation". Rappel : la "personnalité" est habituellement définie comme "une combinaison de caractéristiques émotionnelles, d'attitude et de comportement." L'étymologie du terme est par ailleurs riche d'enseignements : Wikipédia nous indique que "personnalité" vient "du terme latin Persona, lui même dérivé du grec ancien dans lequel il désignait le masque de théâtre antique grec, qui était l'interface entre l'acteur son rôle et le public." Vous noterez l'emploi du terme "interface". Et Wikipédia poursuit : 

"Artifice d'un théâtre d'effigie il présentait les trois particularités suivantes : grâce au masque le public devait pouvoir prédire l'action du comédien ; il y avait un nombre défini de masques possibles ; chaque acteur n'avait le droit d'utiliser qu'un seul masque par représentation."

Capacité prédictive de la "personnalité" algorithmique. Nous y sommes. Nombre défini de masques (ou d'identités) possibles : là encore nous y sommes avec la fin de l'anonymat.

Mais revenons au brevet de Google. Au coeur dudit brevet, et au coeur de la possibilité de créer une telle "personnalité" pour des programmes se trouve la nécessité d'être capable d'agir à la fois du côté des documents produits et du côté des individus les produisant ou les diffusant ; d'être capable d'agir, de traiter, de collecter simultanément les fameuses différentes "facettes" de Ranganathan, à la fois dans leurs extensions classiques et documentaires (cf supra "facettes sémantiques"), mais aussi dans leurs extensions "individuelles" (cf supra "De face(ttes) et de profil").

A partir de là, et à partir de là seulement, il devient possible de passer à l'étape de programmes ou de robots dotés d'une forme de "personnalité". La "personnalité" que Google cherche à créer dans ses programmes est, comme chez Ranganathan, la capacité d'un programme à identifier à la fois le motif (sujet) principal de l'interaction d'un individu à un instant "t" dans un espace donné avec un certain types d'autres individus ou d'autres documents, et à inférer des stratégies de réponses les plus adaptées aux autres facettes.

Je reprend les facettes de Ranganathan :

  • "personnalité"
  • "matière"
  • "énergie"
  • inscription dans "l'espace" (= géographie)
  • inscription dans le "temps" (= chronologie)

Un programme / robot doté de "personnalité" est donc un programme / robot capable de s'adapter à l'utilisateur, c'est à dire capable de produire des modes d'interaction différents en fonction, à la fois de la situation dans le temps et l'espace d'un individu (ou groupe d'individus) ou d'un document (ou groupe de documents) donnés, de "l'énergie" dégagée (relation entre les différents individus et/ou documents), de la "matière" visée (s'agit-il de cocher un rendez-vous dans un agenda, d'effectuer une dictée vocale, de lancer une playlist, d'envoyer un email, etc …), le tout en fonction d'une personnalité donnée (la préoccupation principale de cet individu à l'instant "t" ou la thématique principale des contenus pour lesquels il réclame l'assistance du programme). Et le tout donc, avec de la personnalité.

La fonction crée l'organe et la fonctionnalité crée la personnalité.

Bien. Mais au-delà de fournir une interaction plus "personnalisée", à quoi peut bien servir un programme doté de "personnalité" quand on ne s'intéressait jusqu'ici aux "fonctionnalités" qu'il permettait d'atteindre ?

Pour l'instant, la seule "personnalité" du Pagerank est une fonctionnalité. Ou plutôt une liste de fonctionnalités. Ces fonctionnalités lui permettent de nous afficher des résultats en fonction de notre historique personnel, de notre localisation personnelle, etc.

Ce qui bloque, c'est, pour l'algorithme, pour le programme, pour le "robot", la capacité de passer à un niveau d'abstraction supérieur pour être capable, par exemple, de détecter de l'ironie, du second degré, voir simplement de l'humour ou de la moquerie, à la fois dans nos requêtes, mais plus globalement aussi dans nos différentes productions documentaires, et surtout dans nos interactions sociales. Bref de comprendre le contexte. Et c'est là que Ranganathan, en tout cas son approche "à facette", est porteuse de promesses car elle permet de saisir cette dimension contextuelle et de la documenter à différentes échelles, dans différentes "dimensions".

Attention je vais vous spoiler.

En plus de celui sur la "personnalité", Google a également déposé un brevet pour un système "anti-spoiler". L'article du Monde en rendant compte est là, et le brevet en question, ici. L'objectif est "simple", détecter, à partir des données échangées entre deux utilisateurs A et B, à quel moment l'utilisateur A va tenter de "spoiler" l'utilisateur B pour avertir l'utilisateur B qu'il va être "spoilé" et masquer – toujours pour l'utilisateur B le "spoiler" publié par l'utilisateur A.

A l'heure où la vidéo à la demande explose et où le streaming devient un mode de visionnage majoritaire, et à l'heure où la plupart des plateformes de streaming et de VOD intègrent de plus en plus nativement des fonctions sociales de commentaire, on n'est en effet jamais à l'abri de voir quelqu'un balancer le dénouement de notre série préférée alors que l'on n'en est qu'au visionnage de la première saison. Bref, faut que ça cesse, sinon les gens vont tuer des chatons. Donc Google dépose son brevet anti-spoiler.

Sauf que sémantiquement, un "spoiler" c'est super difficile à détecter. Si j'ai vu les trois saisons d'une série et que tu n'en es qu'à la première, si je te parle de l'évolution psychologique d'un personnage dans la 2ème saison, je ne suis pas pour autant en train de te "spoiler".

Et donc pour que ça marche, au milieu de plein d'autres paramètres, il faut être capable d'atteindre un niveau très fin de compréhension du langage naturel d'une part (ça c'est le boulot de l'ingénierie linguistique et Google et les autres ont plein de top-engineers qui bossent depuis longtemps sur le sujet), mais il faut, aussi, être capable de reconstruire les différentes … facettes d'un échange ou d'un objet documentaire (la série) pour détecter à quel moment l'échange en question cesse de relever du commentaire constructif ou du débat d'initié pour basculer du côté obscur du "spoiler". Bref il faut être capable de détecter de subtils changements dans l'énergie, la matière … et la personnalité des utilisateurs en train d'échanger tout comme dans celles des documents servant de support à l'échange ou à l'interaction. Ranganathan is Back.

Des algorithmes de personnalisation aux algorithmes avec une personnalité.

Vous savez déjà tout le mal que je pense depuis bien longtemps des logiques de personnalisation qui, à terme, finissent par ne faire que renforcer nos propres croyances ("Filter Bubble") et rendent impossible la construction de référents culturels objectivables. Quand Google dépose son brevet anti-spoiler, il se positionne à la fois comme un réseau social (pour réguler les interactions de pair à pair) et comme un moteur de recherche (pour éviter que sur les pages de résultats d'utilisateurs identifiés, ne s'incrustent des résultats contenant des spoilers). Voici précisément ce qui est dit dans le brevet :

"Over the last decade, social networking has become increasingly popular. People frequently share information (e.g., videos, posts, comments, photos, movie reviews, book reviews, etc.) with other users in a social network. However, the information shared by a user may include spoilers for other users. For example, if a user publishes a post describing the unexpected ending of a movie in the user's social stream, this post may spoil the movie's surprise to other users who have not viewed the movie yet. On the other hand, if a user knows that another user can provide the spoiling information, the user can explicitly ask the other user for the spoilers. For example, assume a user has read the first two chapters of a book and may be very anxious to know what happens at the end of the story. If the user learns that a friend has finished reading the book, the user may ask the friend privately to provide information about the end of the story without spoiling the surprise for other users in a group."

Dès lors pour réguler au mieux les tentatives et les logiques de "spoilers", Google peut s'appuyer sur une mine de données (données de lecture pour les livres, données de visionnage pour les films, données d'écoute pour la musique, bref, toutes les métriques associées à nos différentes interactions en ligne) et ensuite les recouper : 

"First, the system can determine progress stages associated with a subject for members in a group. For example, the system can determine and display how far each member in a group may be in reading a book, which may give each member social pressure to read the book according to the schedule and may encourage the members to keep up without waiting for the last minute to skim through the book. Second, the system can automatically determine content spoilers and prevent content spoilers delivered to a user without the user's confirmation. Third, the system may allow a user to explicitly request for spoilers from other users. For example, the system provides a user with progress stages of other users associated with a book, which allows the user to ask the other users that have finished reading the book for spoilers."

La "personnalité" algorithmique est donc encore très orientée "data", mais elle a vocation à s'étendre progressivement vers une régulation qui touche non plus seulement nos interactions individuelles avec un objet technique (lecture ou visionnage en streaming, interrogation d'un moteur de recherche, etc.) mais également nos interactions de pair à pair.

L'usage du terme de "pression sociale" (social pressure) est à ce titre parfaitement emblématique de ces nouvelles ambitions algorithmiques. Jusqu'ici les algorithmes s'étaient "contentés" d'organiser, de classer et de hiérarchiser les accès à une liste certes immense mais finie de ressources documentaires (moteurs de recherche) et/ou de relations sociales (les réseaux sociaux). Ils ambitionnent désormais de s'arroger le droit d'augmenter ou de diminuer "la pression sociale". Pour l'instant cette ambition concerne essentiellement les industries culturelles qui constituent par ailleurs l'une des toutes premières sources "d'usage" desdits algorithmes et cristallisent en effet une pression sociale et économique forte en termes de prescription. Mais ce serait une erreur de croire qu'ils s'arrêteront là.

La "personnalisation" situationniste qui prévalait jusqu'ici cède la place à une personnalité algorithmique déterministe.

Que Google soit capable de poser, dans le cadre d'un brevet anti-spoiler, la question de la manipulation d'une forme de "pression sociale", quand bien même cette dernière ne concernerait que le visionnage de films ou la lecture de livres doit nous obliger collectivement – et rapidement – à nous interroger sur sa capacité à manipuler l'ensemble des autres formes de pression sociale qui relèvent, par exemple, de la sphère politique, idéologique, religieuse, etc.

Le test de Gnirüt.

Jusqu'ici Google et Facebook étaient en capacité de m'enfermer dans une bulle de filtre visant à renforcer mes propres croyances et mes propres représentations dans la mesure où ces croyances et ces représentations permettaient d'asseoir davantage les externalités publicitaires qui fondent leur modèle économique. Tel était et tel reste encore l'enjeu des différentes stratégies de personnalisation.

A partir de maintenant, la "personnalisation" de ces nouveaux "assistants intelligents" doit leur permettre non plus seulement de renforcer mais de modifier mes croyances et mes représentations. Et de le faire non plus en m'inondant de contenus plus ou moins "orientés" ou reposant sur de "l'easy-sharing" au coût cognitif quasi-nul (comme il existe de l'easy listening qui à défaut de n'enthousiasmer personne a l'avantage de plaire à tout le monde), mais en m'installant dans un espace discursif, dans un espace de dialogue qui est l'antithèse du test de Turing.

Dans le test de Turing l'objectif est de voir si un être humain peut ou non détecter le moment où il discute avec un programme et non pas avec un autre être humain, de voir si un programme peut "leurrer" un être humain. Dans les deux brevets déposés par Google, l'objectif et de voir si un algorithme, si un programme peut-être suffisamment "personnifié" pour qu'un être humain accepte de lui accorder la confiance et le crédit qu'il accorderait à un autre être humain dans le cadre d'un dialogue. Il ne s'agit plus de "leurrer" ou de "tromper" pour faire la preuve d'une forme d'intelligence, il s'agit de bâtir une forme d'intelligence qui est un leurre.

Ce passage d'algorithmes de "personnalisation" à des algorithmes avec une "personnalité" signe également leur sortie de la seule sphère documentaire et acte définitivement leur entrée dans le domaine des "affects", bien au-delà de la seule "analyse du sentiment" ou de "l'opinion mining" qui restent, elles, très marquées par une approche orientée donnée mais qui en fut le préalable nécessaire et indispensable.

De la "personnalisation" à la "personnalité" se donne à lire la trajectoire menant d'approches "affinitaires" (homophilie, effet petit monde, graphes à invariance d'échelle, systèmes de recommandation) à des approches désormais "affectives". Nous n'en sommes bien sûr pas encore au stade décrit dans le film Her de Spike Jonze où un individu s'attache à un "algorithme" jusqu'à en tomber amoureux. Mais nous venons d'entrer dans le stade où un algorithme doit être capable de s'attacher suffisamment à un individu pour en modifier les affects. L'artefact émotionnel comme prémisse ou comme déni d'une intelligence "artificielle".

Derrière ce brevet "anti-spoiler" dont par ailleurs rien ne permet pour l'instant de dire s'il sera ou non un jour déployé, il y a le fantasme technologique du risque zéro (celui d'un web assurantiel). Or celui-ci ne peut exister que s'il s'inscrit dans une idéologie du contrôle total.

Dans le contrôle liée à la pression sociale des "spoilers" ne se joue pas simplement une nouvelle étape du contrôle de la valeur mais de manière bien plus essentielle, une nouvelle spoliation, une nouvelle oppression possible.

Une suite … logique.

Uber(image aperçue par ici)

De la politique des algorithmes à l'ingénierie des affects, et devant ces logiques de spoliation il nous faut trouver les chemins d'une réappropriation. D'une dé-personnalisation. Et faire tomber les masques. Dans l'un de ses romans, "L'énigme de l'univers", Greg Egan écrivait ceci :

"Une fois que les gens cessaient de comprendre comment fonctionnaient en réalité les machines qui les entouraient, le monde qu'ils habitaient commençait à se déliter en un paysage onirique dépourvu de sens. La technologie échappait à leur contrôle, ne se discutait plus et ne suscitait que la haine ou l'adoration, la dépendance ou l'aliénation Arthur C. Clarke avait suggéré que toute technologie suffisamment avancée serait impossible à distinguer de la magie."

 

Post-scriptum : L'ironie de l'histoire veut que Google soit le premier à déposer un brevet anti-spoiler alors même qu'il est lui-même l'incarnation parfaite de la recherche "spoilée" au travers de l'auto-complétion et de la fonction Instant Search. 

<Mise à jour> Donc encore une fois,  Maestro Guillaud avait déjà soulevé la question de l'évolution de la personnalisation à la personnification </mise à jour>

4 commentaires pour “Google et l’algorithme de Ranganathan : la personnalité des algos

  1. hubert est vraiment une « personnalité » exceptionnelle ! Il a toujours un temps d’avance… d’ailleurs, il sait quel sera le titre du prochain billet d’affordance…

  2. Puisque l’on parle de cela, c’est amusant de rappeler que « facette » à un sens technique précis en Intelligence Artificielle, que c’est un terme qui apparaît dans les papiers de Marvin Minsky dès 1974 comme élément de description des « frames » (ou prototypes de connaissance), et que les langages de frames sont à l’origine des outils que l’on (et en particulier Google) utilise aujourd’hui dans le web sémantique. La boucle est bouclée 🙂
    Les facettes sont des contraintes que l’on peut associer aux propriétés des objets/concepts et qui permettent en particulier d’inférer de nouveaux énoncés.

  3. Juste un coup de gueule à propos du petit schéma de Tom Goodwin.
    Uber n’est PAS une compagnie de taxis, juste une application de mise en relation de transporteur et de transportés.
    Facebook comme « popular media owner » cela ne veut rien dire (ou j’aimerai bien qu’on m’explique).
    Il y a(vait) plein de détaillant qui n’avaient pas d’inventaire. C’est quoi le changement? L’échelle?
    Airbnb: aucun prestataire de location (régisseur) n’a jamais possédé bien immobilier si ce n’est transitoirement. C’est comme Uber.
    Ce n’est pas avec ce type de slogan mal ficellé (utiliser le terme raisonnement me paraît hors de propos) que l’on va commencer à comprendre le changement numérique (même si toutes ces APPLICATIONS ne sont pas sans influence).

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Articles similaires

Commencez à saisir votre recherche ci-dessus et pressez Entrée pour rechercher. ESC pour annuler.

Retour en haut