Depuis quelques temps on parle énormément de la série "13 Raisons", dont le pitch est celui du suicide d'une adolescente raconté au travers de 13 cassettes qu'elle a laissé à l'un de ses amis et qu'il découvre au fur et à mesure des épisodes. Nous y reviendrons plus tard.
Que faire lorsqu'un adolescent annonce, sur son mur Facebook, une très forte baisse de moral, la très mauvaise image qu'il a de lui ou de son corps ? Faut-il mettre en place un système d'alerte capable de contenir une éventuelle envie suicidaire ou lui afficher de la publicité contextuelle sur la base de ses émotions ?
Facebook a choisi de faire les deux.
Voilà déjà plus d'un an et demi que différents dispositifs "anti-suicide" sont mis en place au sein de la plateforme, en collaboration avec différentes associations. Dispositifs qui se sont récemment accélérés en raison d'une nouvelle vague de suicides diffusés en "live" sur la plateforme, ce qui, au-delà de l'aspect dramatique des situations individuelles, n'est hélas surtout pas très bon pour le business. Je vous avais déjà parlé de tout cela il y a un an, en Juin 2016, dans l'article "Quand Facebook lutte contre le suicide. Qui n'a rien à faire sur Facebook." Et récemment (Mars 2017) Facebook a indiqué avoir encore renforcé son approche par de nouvelles couches d'intelligence artificielle pour permettre de mieux détecter les messages relevant d'un risque de suicide.
Seulement problème, un journal Australien a réussi à obtenir un document de 23 pages, émanant des bureaux australiens du même Facebook, dans lequel l'entreprise vante la capacité de ses algorithmes à identifier "les moments où les jeunes ont besoin d’un regain de confiance" à l'aide d'un fichier listant – notamment – les différents états émotionnels des adolescents identifiables dans la plateforme, par exemple : "bon à rien", "peu sûr de soi", "nerveux", "démoralisé" … En gros la diffusion de suicides en "Facebook Live" n'est pas bonne pour le business, mais par contre le repérage de profils à tendance suicidaire peut permettre d'afficher des pubs encore davantage ciblées pour un public encore davantage perméable et réceptif, et ça c'est bon pour le business.
Ars Technica et Numérama donnent tous les détails dont nous disposons actuellement sur cette fuite et cette affaire. J'ajoute que le suicide des jeunes en particulier est très sensible et important en Nouvelle-Zélande (qui dépend du bureau Australien de Facebook).
3 raisons. De ne pas croire Facebook.
De son côté Facebook a réagi plus que sobrement (et à mon sens très maladroitement) ici, avec un argumentaire en trois temps :
Premier temps : "La prémisse de l'article est fausse. Facebook n'offre pas d'outils permettant de cibler les gens en fonction de leur état émotionnel."
Bien sûr. D'ailleurs il ne tente même pas d'influencer cet état émotionnel ni d'en mesurer les variances pour affiner son modèle publicitaire. Prends-nous pour des quiches.
Et d'ailleurs il n'y a pas de business de l'émotion. Pas du tout. Prends-nous pour des quiches le retour.
D'ailleurs ce n'est pas du tout pour cibler les gens en fonction de leur état émotionnel que Facebook a déployé sa nouvelle série de boutons "réactions". Prends-nous pour des quiches le retour de la vengeance du fils.
Deuxième temps : "L'analyse faite par ce chercheur australien avait pour but d'aider les marketeurs à comprendre la manière dont les gens s'expriment sur Facebook. Elle n'a jamais été utilisée pour du ciblage publicitaire et s'est basée sur des données agrégées et anonymisées."
Et donc là je dis juste lol. D'abord lol pour les données anonymisées : elles le sont probablement en effet, mais selon la manière dont elles le sont elles peuvent parfaitement permettre de remonter sinon jusqu'à des individus ciblés mais au moins à des cohortes spécifiques. Et puis et surtout lol pour la périphrase qui est aussi une antiphrase : "aider les marketeurs à comprendre la manière dont les gens s'expriment" est rigoureusement équivalent à déployer des outils permettant de "cibler les gens en fonction de leur état émotionnel" puisque bien entendu ce sont d'abord des états émotionnels que les gens expriment sur Facebook.
Troisième temps : "Facebook a établit une procédure claire pour les recherches menées en son sein. Cette recherche n'a pas suivi les procédures et nous allons y regarder de plus près pour corriger le tir."
En effet ladite procédure avait même été établie durant l'été 2014, suite à l'énorme cafouillage qui avait suivi la révélation de cette autre "étude" menée auprès de 600 000 utilisateurs qui n'avaient pas été consultés. Et déjà à l'époque Facebook s'était excusé et avait juré que "mais pas du tout" avant de dire que "oui bon d'accord" et de promettre que "on ne le fera plus".
Bref et comme le résume très bien le titre du papier de Lucie Ronfaut dans Le Figaro : "Pour vendre de la pub, Facebook a observé les adolescents déprimés". Et pis c'est mal. Et pis c'est tout. Et pis c'est le business. Et pis ça fonctionne comme ça. Et pis c'est tout encore une fois.
D'autant que ça fonctionne parfaitement, comme le note encore Numérama :
"Les données, très détaillées, vont jusqu’à indiquer les tendances observées chez les 6,4 millions de jeunes Australiens et Néo-Zélandais utilisateurs de Facebook sur 7 jours : leurs publications de la semaine seraient ainsi plus tournées vers la prise de confiance tandis que celles du week-end se consacrent plutôt à la réflexion et à la projection d’objectifs."
Et là encore la question ne l'anonymisation n'a aucun sens : un annonceur s'en moque de savoir s'il s'agit de Kevin ou de Lucie qui verra sa publicité, un annonceur veut s'assurer que sa pub s'affichera sur la cohorte contractuellement ciblée au moment le plus opportun. C'est à cela que s'engage Facebook, et c'est à cela que servent ces études "hors procédure".
La vérité est ailleurs. La dépression aussi.
Il y a au moins trois morales à cette histoire.
La première c'est qu'après le "si c'est gratuit, c'est toi le produit", vient le "s'il y a une cible, c'est que quelqu'un finira par tirer dessus". Et si c'est toi la cible, ben …
Le deuxième c'est que Suicide is painless. Mais que du coup, Advertising is painfull.
Et la troisième est un effet miroir. Je vous explique. Quelques jours avant que l'on n'apprenne cette histoire, sortait un article scientifique à la procédure parfaitement claire, publié dans l'American Journal of Epidemiology, titré "Association of Facebook Use With Compromised Well-Being: A Longitudinal Study" et chroniqué et résumé (de manière un peu abusive) sur BoingBoing de la manière suivante : "Facebook use is a predictor of depression"
"L'usage de Facebook permet de prédire la dépression". Si seulement … En fait l'article scientifique ne dit jamais que Facebook permet de prédire la dépression mais, c'est plus subtil, que "l'usage de Facebook est associé de manière négative avec la notion de bien-être" et que, au final :
"The negative associations of Facebook use were comparable to or greater in magnitude than the positive impact of offline interactions, which suggests a possible tradeoff between offline and online relationships."
Donc il n'y a pas d'équation qui dirait : "plus tu es connecté sur Facebook et plus tu as de chances d'être en dépression" mais la représentation que nous nous faisons de notre propre santé mentale (et donc de notre propre état dépressif) est négativement corrélée à l'usage de Facebook. Et encore une fois si l'article scientifique démontre la corrélation il ne parle pas de causalité. Un résultat que chacun d'entre nous peut par ailleurs observer et vérifier assez empiriquement et facilement s'il a traversé des états mentaux sinon dépressifs mais en tout cas tristes ou mélancoliques : dans ces moments là nous avons une propension à davantage nous épancher en ligne ou en tout cas à davantage aller chercher l'interaction en ligne que l'interaction hors-ligne.
La dernière morale de cette histoire c'est donc que c'est le site qui tente le plus de faire de la dépression une source de business comme une autre qui est aussi le site dont l'usage est le plus fortement corrélé à des comportements dépressifs. #CQFD
Bonus Track
Au moment de mettre un point final à ce billet je tombe sur l'interview qu'Antonio Garcia-Martinez (Facebook product manager de 2011 à 2013) vient d'accorder au Guardian sur cette affaire. Article titré : "Je suis un ancien de chez Facebook : ne croyez pas ce qu'ils vous racontent au sujet de la publicité." Garcia-Martinez confirme évidemment ce que je vous ai en gros raconté dans ce billet mais on apprend aussi d'autres choses intéressantes. Par exemple ceci :
"Facebook deploys a political advertising sales team, specialized by political party, and charged with convincing deep-pocketed politicians that they do have the kind of influence needed to alter the outcome of elections.
I was at Facebook in 2012, during the previous presidential race. The fact that Facebook could easily throw the election by selectively showing a Get Out the Vote reminder in certain counties of a swing state, for example, was a running joke."
Je traduis l'idée générale : une fois que vous avez réussi à convaincre votre client que certaines données que vous détenez sont capables d'influencer des comportements, vous pouvez ensuite lui fourguer n'importe quoi à n'importe quel prix 🙂
Mais c'est surtout la suite de l'entretien qui est passionnante, et dont je vous traduis une grande partie (je souligne) :
"Transformer des données Facebook en argent est plus difficile qu'il n'y paraît, principalement parce que l'essentiel de la masse de vos données n'a aucune valeur. Vos photos de vacances ou de fêtes trop arrosées et vos flirts via Messenger avec vos collègues de travail n'ont aucune valeur commerciale.
Mais de temps en temps, si vous êtes malin, et avec beaucoup d'itérations d'algorithmes de machine-learning et des méthodes d'essai et erreur systématiques, le marketeur avisé peut trouver le mix parfait d'âge, de localisation, d'heure de la journée et de goût musical ou cinématographique qui est le signe d'un segment démographique qui remportera tout de suite une énorme audience. Le "taux de clic" ne ment jamais, comme disent les publicitaires. (…).
Il n'y a rien dans les marchés dont j'ai eu connaissance qui ressemble à du ciblage publicitaire en fonction d'émotions. Mais Facebook dispose – et vend – du ciblage de type "psychométrique", où l'objectif est de définir et d'isoler des sous-ensembles d'une audience qu'un annonceur pense être particulièrement réceptive à son message.
Et connaissant la manière dont fonctionne la stratégie de vente de Facebook, je n'imagine pas que la compagnie n'ait pas concocté un tel pitch au sujet des émotions ressenties par les adolescents sans conclure par une accroche finale dans le genre : "et voici la manière dont vous pouvez réaliser tout cela sur la plateforme publicitaire de Facebook." (…)
La question n'est pas de savoir si cela peut être fait. Mais de savoir si Facebook doit appliquer un filtre moral à ce genre de décision. Tenons pour acquis que Facebook cible des publicités pour des ados en dépression. Ma réaction c'est de dire : "et alors ?" Parfois les données se comportent de manière non-éthique ("Sometimes data behaves unethically").
Je vais illustrer mon propos avec une anecdote vécue quand j'étais salarié. Quelqu'un de l'équipe Data Science avait mitonné un nouvel outil de recommandation pour les pages que les utilisateurs pourraient liker. Et que se passa-t-il lors de son lancement ? Tous les stéréotypes ethniques que vous pouvez imaginer. On a décidé de tuer l'outil le jour où il s'est mis à recommander la page du président Obama à tous ceux qui avaient liké celle du rappeur Jay Z. Bien qu'il s'agisse là d'un fait statistique – les gens qui aiment Jay Z sont plus enclins à aimer Obama – c'était l'une des vérités statistiques que Facebook ne pouvait pas se permettre d'épouser.
Et de conclure ainsi :
"La dure réalité c'est que Facebook ne tentera jamais de lui-même de limiter de tels usages non-éthiques à moins que le tollé dans l'opinion ne soit tel que cela ne l'oblige à faire machine arrière. C'est ce qui s'est passé avec Trump et les accusations de "Fake News" : même Zuck l'implacable a du céder et introduire des technos anti fake news. Mais ces technos passeront à la trappe dès que ce sera possible. Pourquoi en serait-il autrement ? Les données et le taux de clic sont de toute façon de leur côté, au moins dans le cas de la publicité."
13 raisons.
La raison publicitaire est toujours la meilleure. Même s'il s'agit d'adolescents en souffrance. Et à la différence du titre anglophone de la série éponyme, il n'est hélas ici pas très compliqué de savoir pourquoi.