Voilà ce que l'on pouvait voir ce matin dans le fil Twitter du compte @Yahoo, lequel fil est alimenté par un bot.
Comme je parle souvent sur ce blog de la question de l'éditorialisation algorithmique, j'archive ici ce qui me semble en être la plus troublante illustration. Notez que cette "erreur" algorithmique n'apparaît que sur le fil Twitter de Yahoo! et que l'article lié auquel il renvoie comporte, lui, la bonne photo d'illustration, et non pas celle qui vient de gagner le prix Pulitzer) :
Cette erreur "éditoriale" (toujours pas corrigée à l'heure où je rédige ce billet) est "intéressante" à plus d'un titre.
D'abord – comme en atteste le faible taux de réaction – seulement 2 commentaires une heure après sa publication – elle passe relativement inaperçue dans le défilement incessant de l'actualité, a fortiori lorsqu'un événement à très forte couverture média mobilise l'essentiel de l'attention (en l'occurrence la mort de Prince). Ce que l'on peut comprendre (fonctionnement classique des médias) mais ce dont on peut également s'étonner ou s'offusquer : décès d'une pop-star et gifle de Joey Starr mis à part, elle intervient aussi quelques heures après l'annonce de la mort en mer de plus de 500 migrants.
Ensuite elle entretient plusieurs niveaux de confusion et d'interprétation sur le fond et sur la forme.
Sur la forme : nous lisons en effet "group phone calls" mais l'illustration parasite la lecture puisqu'elle nous donne à lire "group photo", une photo de groupe. Voire, si l'on voulait faire preuve d'un peu de cynisme, "photo call" (séance photo).
Mais aussi et surtout sur le fond : voilà plusieurs mois que nous lisons plein d'articles (bon d'accord que "je" lis plein d'articles) sur l'importance du téléphone portable et de l'accès à internet pour ces milliers de réfugiés. La superposition du texte ("Facebook Messenger permet désormais les appels vocaux de groupe") et de l'image (une barque de réfugiés en détresse) convoque et mobilise immédiatement ce "contexte" et passé l'étonnement ("ben c'est quoi ça ?"), passé l'énervement ("ils pourraient faire gaffe quand même"), nous voilà dans l'interprétation : non, aussi bizarre que cela puisse paraître, cette publication ne comporte pas nécessairement de contradiction entre le texte et l'image d'illustration. Ou plus exactement, mon contexte cognitif (= les trucs que je lis, auxquels je prête attention depuis plusieurs mois) est capable d'atténuer cette contradiction pour lui trouver du sens, un sens qu'on pourrait expliciter comme suit : grâce à cette fonctionnalité de Facebook Messenger, les réfugiés vont pouvoir parler à plusieurs membres de leur famille en même temps.
Malaise en iconographie ?
On pourrait être tenté de croire que ce #Fail est une exception. De fait la plupart du temps bots et algorithmes accomplissent relativement bien la tâche qui consiste à associer une image d'illustration à un titre d'article. On pourrait aussi – et on aurait raison – souligner que les journalistes et/ou les services d'iconographie sont eux aussi capables d'erreurs. Mais, comme le prouve le délicieux Tumblr "Malaise en iconographie", ces #fails ne sont plus vraiment rares ou simplement anecdotiques, et ils sont effectivement sur-représentés par les bots en activité sur Twitter :
Ces trois #fails renvoient en fait à trois situations différentes (d'où mon choix).
Dans le premier (Sarkozy illustrant un titre sur les attentats et la garde à vue de suspects) nous sommes exactement dans le cas de figure de Yahoo avec la photo des réfugiés et l'annonce de Facebook Messenger. En effet le site RTL donne, lui, la bonne photo d'illustration. Et je me garderai bien de vous expliquer pourquoi mon contexte cognitif n'a aucun mal à trouver du sens à ce choix d'illustration 😉
Dans le second cas, il s'agit vraisemblablement d'une erreur humaine puisque l'article sur le site de BFMTV, tout en indiquant une "mise à jour" de l'article, comporte la même photo de Laurence Parisot et non de Laurence Engel, mais que le célèbre stagiaire de BFM (qui d'autre) a visiblement encore sévi puisqu'un double #fail vient renforcer l'erreur initiale en ajoutant le nom de Laurence Engel sur la photo de Laurence Parisot … La preuve :
Le troisième cas est plus simple et classique et renvoie aux capacités d'imagination limitées d'un certain nombre de rédactions quand il s'agit d'illustrer une photo de pénis.
Malaise en algorithmie ?
Je m'arrête là puisque c'est vendredi en vous laissant découvrir les autres #fails sur l'excellent "Malaise en iconographie", non sans attirer une nouvelle fois votre attention sur le fait que nous entrons dans une zone de "malaise en algorithmie" et que ces erreurs d'éditorialisation algorithmique renvoient à d'autres questions essentielles comme par exemple : la question de la reconnaissance faciale automatique, les effets d'auto-entraînement et d'auto-apprentissage (si un bot identifie Laurence Parisot comme Laurence Engel et si l'erreur n'est pas corrigée, les autres bots vont avoir tendance à inscrire cette erreur comme un fait), etc.
Les bots aussi, sont parfois des béotiens.
On pourait gloser un peu sur les techniques d’obfuscation — et faire un peu d’épistémologie sur les techniques (et discours) à prétention ‘scientifique’ — ainsi que sur les pratiques en cours de généralisation du recours à la caste des entrepreneurs et cadres en ‘marcom’ (marketing/communication), tant en entreprise que dans ce qui fut jadis des services publics.