Facebook vient d'annoncer le déploiement de son bouton "anti-suicide", en service depuis un an aux Etats-Unis, à l'ensemble des utilisateurs du réseau social.
Concrètement, vous pourrez-donc "signaler" une publication qui vous paraît traduire un état ou une intention suicidaire.
Et cela se fera de cette manière dans l'interface francophone du site :
Si les mots ont un sens, il est intéressant de noter que le premier signalement effectué s'effectue grâce à la phrase "Je pense que cela n'a rien à faire sur Facebook". Car effectivement, Facebook a horreur de la friction, des images d'enfants morts, du drame des migrants, et donc du suicide, autant d'éléments inappropriés dans son écosystème de joyeux chatons concensuels.
Si les mots ont un sens il est aussi intéressant de noter que le "suicide", que "l'intention suicidaire" est incluse dans un pack comprenant "la menace" ou "la violence". Ce que l'intention suicidaire menace réellement c'est l'éditorialisation algorithmique en mode chatons, la violence qu'elle traduit c'est celle que Facebook cherche à masquer davantage qu'il n'est soucieux de mettre en place des solutions permettant de lutter contre elle.
Alors naturellement c'est "bien" que Facebook en particulier et les plateformes en général cherchent à faire quelque chose contre le suicide, c'est bien que ces plateformes travaillent en relai avec des associations de prévention. De la même manière, naturellement c'est "bien" que Facebook en particulier et les plateformes en général cherchent à faire quelque chose contre la radicalisation, contre l'anti-sémitisme, contre les groupes et les discours djihadistes, contre la guerre, contre la faim, contre les attentats. C'est bien mais c'est aussi éminemment dangereux. Ce n'est pas dangereux qu'elles le fassent mais c'est dangereux qu'elles puissent se retrouver en situation d'être les seules à pouvoir le faire d'une manière suffisamment efficace. Et que le moteur de la lutte contre ces discriminations et ces discours de haine devienne soluble dans la quête de l'optimisation du ROI (retour sur investissement)
Parce qu'il s'agit de plateformes privées et non de politiques publiques.
Ces plateformes privées raisonnent sur du court et du moyen terme. La mort, le suicide, l'incitation à la haine, sont, pour ces plateformes privées, des vecteurs et des biais d'interactions calculables et transférables en autant de bénéfices net ou d'absence de retour sur investissement.
Ces plateformes privées ne luttent pas contre le suicide, le terrorisme ou l'incitation à la haine parce qu'elles sont régies par des principes relevant de l'éthique. Elles luttent contre tout cela, soit parce qu'elles reçoivent une injonction politico-sociétale momentanée qui les oblige à se positionner en termes d'image et pour préserver leurs marges attentionnelles (et leur image), soit parce que les contenus relevant de l'appel à la haine, du terrorisme ou de l'intention suicidaire sont contraires à la maximisation de leurs profits. Bref, parce que le suicide "n'a rien à faire sur Facebook".
Et tout est là. Pour lutter contre le suicide, contre le terrorisme, contre l'incitation à la haine nous avons avant tout besoin de politiques publiques de prévention, d'accompagnement, de traitement et de soin pensées sur le long terme et dans un cadre sociétal éthique qui ne soit pas directement indexé sur l'actualité ou le potentiel "clickbait" que ces problématiques recouvrent. Or deux phénomènes se conjuguent actuellement : d'abord l'affaiblissement constant (en termes de moyens et d'ambition) desdites politiques publiques, ensuite le renforcement tout aussi constant du rôle central qu'en viennent à occuper ces plateformes privées sur ces questions. Regardez, exemple parmi tant d'autres, la nouvelle gabegie du lancement de l'application gouvernementale d'alerte des populations, application qui fut construite "en réponse" au Safety-Check de Facebook.
La grande crise sociétale qui s'annonce ne vient pas du fait que les citoyens et les individus sont de plus en plus "dépendants" de ces plateformes, la grande crise sociétale qui s'annonce vient du fait que ce sont les pouvoirs politiques qui sont de plus en plus dépendants de ces plateformes auxquelles on a laissé l'opportunité de se substituer à toute une série de politiques publiques. Et nous n'en sommes qu'au début. Accès à internet naturellement, traitement algorithmique de l'information bien sûr, mais également transports, énergie, médecine, éducation, santé, processus démocratique (élections) …
A ce rythme-là le prochain G20 réunira uniquement les membres du conseil d'administration des GAFA et autres NATU.
Et les questions de responsabilité, de redevabilité ("accountability") sont loin, très loin d'être réglées.
Mais pour en revenir à ce bouton de prévention du suicide déployé par Facebook, je vous invite à relire l'analyse que j'en faisais lors de son lancement en 2015, lancement concomittant au drame d'Andreas Lubitz, ce pilote d'avion dont le "suicide" avait causé la mort de 150 passagers du vol German Wings. Analyse que je reproduis ci-après.
=====================================
Suicide is Painless and Surveillance is Globale.
Sur les questions "comportementales" et les "conduites à risque", en particulier le risque de suicide, Facebook a récemment annoncé son intention de muscler son dispositif existant en déployant une nouvelle fonctionnalité décrite comme suit :
"Ce nouveau mécanisme permettra de signaler un message de détresse émis par un «ami» Facebook, qui laisserait penser que l’auteur pourrait se donner la mort.
Le dispositif se décompose en plusieurs phases. Dès l’apparition d’un nouveau message sur Facebook, un onglet permet de signaler ceux considérés comme alarmant aux employés du réseau social, comme c’est déjà le cas pour les posts liés à la nudité ou à la violence. Un message est alors envoyé à l’utilisateur qui a signalé le post. Une note informative sur le suicide lui est transmise, et il est invité à contacter son «ami» en détresse.
Mais cette personne peut aussi demander au réseau social d’intervenir directement. Pour cela, Facebook a annoncé former ses employés aux questions relatives au suicide. Après vérification des messages signalés, ils peuvent décider de déconnecter l’auteur de ces posts, qui, dès sa prochaine connexion, recevra un message lui indiquant que ses amis s’inquiètent pour lui. De plus, Facebook l’invitera à prendre contact avec ses amis, et à appeler une centrale d’appel de prévention du suicide."
Et le résultat ce sera ça :
It's complicated.
Oui c'est compliqué. C'est compliqué le traitement de l'intention suicidaire par l'ingénierie linguistique. C'est compliqué d'imaginer une armée d'ouvriers psychologues oeuvrant en permanence à l'écoute de l'immense fatrasie de Facebook et guettant ce qui ici relève de l'intention suicidaire avérée et là de l'humour noir ou du simple moment de baisse de moral passagère. C'est compliqué et c'est dangereux.
Quand tout est compliqué, quand il est difficile d'apporter des réponses manichéennes à des questions relevant de la psychologie, quand les questions de surveillance se mêlent aux questions de prévention, quand le flou est tel que personne ne peut prétendre apporter de solution simple et fiable aux nouvelles zones de flou qui entourent les différents aspects de nos vies et de nos sociabilités connectées ou non, il est un seul réflexe et une seule urgence démocratique permettant d'éviter l'installation d'un régime d'arbitraire généralisé : cela consiste à s'appuyer sur la justice et sur la loi. Plutôt que sur des sociétés privées et sur des algorithmes.
Le plus grand risque serait de s'installer dans la croyance aussi commode que dangereuse de sociétés commerciales pouvant servir de palliatif aux manques, aux carences ou aux erreurs des systèmes judiciaires déjà en place dans nos sociétés, et ce quelles que puissent être les carences desdits systèmes. Le plus grand risque ce serait de croire que c'est le boulot de Facebook de transmettre des rapports "de corrélations médico-psychologiques" aux employeurs d'Andreas Lubitz puisque visiblement le circuit administratif et le suivi des pilotes dispose de carences sur leur suivi psychologique. Le plus grand risque ce serait de croire que c'est à Microsoft ou à Google de rendre justice dans des affaires de pédophilie en s'appuyant sur les seuls pouvoirs de police de leurs milices du code. Le plus grand risque ce serait de croire qu'une corrélation a valeur de preuve. Refrain connu. "Si vous n'avez rien à cacher, vous n'avez rien à craindre d'une surveillance généralisée." Mais nous avons tous quelque chose à cacher. Sur la seule foi de corrélations algorithmiques statistiquement pré-établies nous sommes, ou nous serons tous un jour, de potentiels dépressifs, alcooliques, a-sociaux, bi-polaires, assassins, pédophiles ou que sais-je encore.
La discrétion contre la délation.
Oui nous avons et aurons tous et toujours un certain nombre de choses à cacher. Mais pas au nom d'une possible "dissimulation" hors la loi. Au nom d'un principe fondamental de discrétion. Discrétion dans tous les sens du terme d'ailleurs.
Nous nous devons d'être "discrets" dans nos paroles et dans nos actes, c'est à dire sinon "réservés" à tout le moins "mesurés", précisément pour ne pas laisser à d'autres le soin d'en permanence "nous mesurer".
Nous sommes également des êtres discrets au sens mathématique du terme, c'est à dire "distincts, séparés, discontinus." Et à ce titre nous "résistons" à l'analyse algorithmique et statistique de causalités pour ne prêter le flanc qu'à de possibles corrélations. Corrélations à l'image des vessies et des lanternes, on voudrait nous faire prendre pour autant de causalités possibles.
Au sens topologique, nous peuplons un espace que l'on nous incite en permanence à étendre mais qui demeure fondamentalement un espace discret, "un espace dont tous les points sont isolés", et dont le graphe de Facebook ne nous vend qu'un rapprochement arbitraire et sous-contrôle.
Au sens informatique enfin, une variable discrète qualifie "un type de donnée qui ne peut prendre qu'un petit nombre de valeurs." L'infiniment petit et l'infiniment grand. Chacun d'entre nous est défini, traqué, suivi, indexé en permanence au moyen d'un nombre de données toujours plus étendu, mais chacun d'entre nous ne pourrait être catalogué (ou dénoncé …) qu'un nom d'un tout petit nombre de valeurs et d'invariants statistiques relevant eux-même d'un nouveau régime de corrélations parfaitement arbitraires.
Alors au sens propre comme au sens figuré, pour nous-mêmes comme pour les autres, sur l'affaire de Jean-Luc Lahaye comme sur celle d'Andreas Lubitz, efforçons-nous d'être … discrets.