Peut-on mesurer sans contraindre ? Bienvenue dans le World Wide Brain.

On a souvent comparé l'architecture du réseau internet, ses multiples noeuds de connexion et l'immensité de ses liens hypertextes, à l'architecture neuronale et synaptique de notre cerveau. De fait le web est depuis longtemps devenu, par externalisation, une forme d'extension de notre mémoire.

La mémoire neuve.

De la disquette au CD-Rom jusqu'au web en tant qu'écosystème, les technologies d'hier combinées aux logiques de miniaturisation, nous ont permis de mener presque à son terme l'externalisation de certaines formes d'engrammation mémorielle. L'enjeu est aujourd'hui de ré-internaliser des capacités mémorielles c'est à dire de littéralement nous permettre de les réincorporer, soit pour en limiter la dégradation pathologique (Alzheimer) ou naturelle soit pour les augmenter artificiellement. Parmi quelques-uns de ces projets ou pourra mentionner les travaux de l'entreprise Kernel et son implant près de l'hippocampe

Interface cerveau-machine.

On voit donc, depuis quelques temps, fleurir dans la science les scénarios les plus irréels de la fiction d'hier. Le cerveau comme interface ultime. Commander aux machines simplement par la pensée. Un vieux rêve qui est aujourd'hui, nous y reviendrons, en partie une réalité.

On appelle cela des interfaces neuronales, des interfaces cerveau-machine (ICM ou BCI en anglais : "Brain-Computer Interface"). Il s'agit dans un premier temps d'observer et de mesurer notre activité cérébrale, et dans un deuxième temps de se servir des ondes cérébrales pour commander "par la pensée" des opérations médiées par un ordinateur grâce à ce que l'on appelle le "neurofeedback" c'est à dire la capacité à prendre conscience de son activité cérébrale pour apprendre à la contrôler. Tout cela est très clairement expliqué sur cette page de l'INSERM qui nous apprend également que "le concept d'ICM remonte à 1973 et que les premiers essais chez l’homme datent du milieu des années 90".

Avec une recrudescence notable d'avancées technologiques et de documentation scientifique depuis les années 2010, de l'électro-stimulation "simple" au "Brain-Net" théorisé par quelques gourous, nous sommes et serons toujours fascinés jusqu'au morbide par l'attraction qu'une boîte noire technologique est en capacité d'exercer sur la boîte noire biologique qu'est notre cerveau.

Et puis soudain … 

"La Chine collecte les données directement depuis le cerveau des travailleurs à une échelle industrielle."

Et puis soudain dans l'actualité, en Chine, il semble que nous basculions dans une énième variante dystopique où une grande puissance au régime politique plus autoritaire que démocratique se trouverait en situation d'observer en temps réel l'état émotionnel de ses sujets. Si vous avez raté cette histoire, tout commence le 29 Avril par un article du South China Morning Post (SCMP) qui titre donc : "La Chine collecte les données directement depuis le cerveau des travailleurs à une échelle industrielle."

Avec cette image à la une d'un conducteur de train à grande vitesse dont la casquette serait appareillée pour analyser ses émotions en temps réel et éviter (par exemple) qu'il ne s'endorme ou ne soit pris d'un vague à l'âme suicidaire. Car bien sûr tout cela est fait dans l'intérêt du public et de la protection des travailleurs hein. Bien sûr.

Casquetteneuronale

Le sous-titre de l'article est tout aussi évocateur :

"Les projets gouvernementaux de surveillance déploient des capteurs cérébraux ("Brain-reading technology") pour détecter les changements d'état émotionnel des employés sur les chaînes de production, dans l'armée et dans les postes de pilotage de trains à haute-vitesse."

Rappelons que la Chine est bien bien bien au taquet sur ces questions (de surveillance globale et numérique) comme en attestent à la fois la place qu'y occupent les technologies de reconnaissance faciale et  la mise en place du "Social Credit System" qui fait qu'un épisode de Black Mirror ("Nosedive") est en passe de devenir la norme pour un 1/6ème de l'humanité. 

Et donc cette fois, grâce à des capteurs cérébraux, l'ambition est de pouvoir, à terme, surveiller en temps réel l'état émotionnel de la population. Officiellement et pour l'instant il s'agit "juste" de détecter le stress (pour éviter les accidents ou permettre aux gens de se reposer), ou d'améliorer l'efficacité et la sécurité. Elle est pas belle la vie ? Ben non. 

En direct de tes émotions.

L'article du SCMP indique que

"des capteurs analysent en continu les ondes cérébrales et envoient les données à des ordinateurs qui, à l'aide d'algorithmes d'intelligence artificielle, détectent des pics émotionnels tels que la dépression, l'anxiété ou la colère (depression, anxiety or rage)".

On y apprend également :

  • que la technologie est testée depuis – au moins 2014 – dans différentes entreprises et organisations,
  • qu'elle a permis d'éviter plein d'accidents, de gagner plein d'argent en augmentant les cadences de production et donc les marges,
  • que couplée à des casques de réalité virtuelle cette technologie permet aussi de mieux préparer, former et entraîner les ouvriers avant de les mettre sur poste à travailler à la chaîne,
  • qu'au début les gens sont un peu flippés mais qu'après ils comprennent qu'on ne va pas lire dans leur pensées et que donc finalement ils sont heureux (sic),
  • que c'est aussi utilisé dans les hôpitaux auprès de patients,
  • que pour les pilotes de trains à grande vitesse cette technologie permet de détecter les états de fatigue et de baisse de l'attention avec une efficacité de 90% (sic),
  • que la Chine pourrait être le premier pays à imposer ces capteurs émotionnels à l'échelle de son aviation civile et commerciale (= pour tous les pilotes) avec cette phrase assez magique : "That means the pilots may need to sacrifice some of their privacy for the sake of public safety", car bien sûr on surveillera aussi leur état émotionnel chez eux, pour déterminer s'ils sont ou non en état de piloter, 
  • et enfin que tout cela est principalement développé à l'université Ningbo, dans le cadre de "Neuro Cap", un projet financé par le gouvernement chinois.

"Sacrify your privacy for public safety."

Bref la féérie est totale. Bien sûr l'info a suscité énormément de reprises dans la plupart des titres de presse de la planète. La tonalité générale de ces reprises est plutôt du genre : 

5509239

Mais on en compte aussi quelques-uns plus circonspects qu'alarmistes, dont cet édito de The Verge qui annonce : "Brain-scanning in Chinese factories probably doesn’t work — if it’s happening at all" et explique que les biais de ces technologies d'électro-encéphalographie (ben oui) sont encore bien trop nombreux pour pouvoir être utilisés ainsi sans d'immenses risques de faux-positifs. 

"This brain activity can show us patterns and tell us if there’s something abnormal, but there are plenty of limitations. First and foremost, we still don’t know how to perfectly record brain signals, says Barry Giesbrecht, a professor of psychology at the University of California at Santa Barbara and director of its Attention Lab. “EEG sensors are not only sensitive to brain activity, but anykind of electrical activity,” says Giesbrecht. So blinking or clenching your jaw could lead to a false positive, as could movement and sweat. In experiments, researchers have their subjects blink and do small movements so they can teach the device not to count those signals as brain signals. But in a real-world setting, and with thousands of workers, this type of calibration would be much harder to do. (…)

Second, the algorithm that interprets the data might not be very good. (It’s hard to know here because, again, the article is low on details.) And finally, while EEG can tell us whether someone is awake or asleep, complex emotional states like depression and anxiety are another story. We don’t yet have a sophisticated enough understanding of which patterns of brain activity match which emotional stages, adds Giesbrecht."

En résumé nous avons donc trois raisons principales de scepticisme qui tiennent :

  • primo à l'appareillage lui-même et aux risques d'altération du signal (partie technique),
  • deuxio à l'algorithme en charge de capter et d'analyser tout ça (partie informatique),
  • et tertio à l'état des connaissances en matière d'états émotionnels complexes comme la dépression ou l'anxiété (partie psychologie).

Bon mais alors ça marche ou ça ne marche pas ?

J'y viens. Par chance Olivier Ezratty a proposé il y a pile un an un billet qui résume bien l'éventail des (im)possibles et des (im)probables : "Ces start-ups qui veulent bidouiller le cerveau", que je vous invite à parcourir et dont je me contente de rappeler les différents scénarios qu'il évoque. Chacun d'entre eux (à l'exception du 6ème et du 7ème) correspond a des programmes de recherche effectifs et pour certains déjà anciens : 

  1. Activer des zones cérébrales dysfonctionnelles ou désactivées
  2. Connecter les entrées du cerveau avec des capteurs numériques 
  3. Lire dans le cerveau (notamment grâce à des programmes dits de "subvocalisation" permettant "d'interpréter nos pensées" et de les convertir en "commandes" sans que nous ayons à prononcer le moindre mot, une sorte "d'auto-télépathie", nous y reviendrons tout à la fin de cet article)
  4. Ecrire dans le cerveau au-delà du contrôle de la perception des sens et au niveau cognitif.
  5. Emuler le fonctionnement d’un cerveau dans un ordinateur.
  6. Copier le contenu d’un cerveau d’un défunt dans un ordinateur.
  7. Copier le contenu d’un cerveau vivant dans un ordinateur.
  8. Ecrire dans un cerveau avec Neuralink.

Pour commencer, n'oublions jamais que la vision et les technologies liées à ce que l'on appelle "l'Homme augmenté", et ce quels que soient <NE CLIQUEZ PAS> les organes ou fonctions visées par ladite augmentation </JE VOUS AVAIS DIT DE NE PAS CLIQUER> reposent d'abord historiquement sur la capacité de pallier les faiblesses, les maladies et les séquelles physiques d'une humanité diminuée. Ainsi nombre de ces interfaces cerveau-machine sont développées dans un cadre médical et thérapeutique dans une logique de stimulation nerveuse, musculaire ou cognitive, soit pour aider à rétablir des fonctions lésées ou traumatiques, soit pour que des stimulations puissent faire fonction d'émulation pour différents dispositifs et appareillages techniques auprès de personnes en situation de handicap. Ainsi il est par exemple possible pour un tétraplégique de contrôler un bras robotique par la pensée, grâce à une interface neuronale. Une équipe française vient de permettre à un tétraplégique de contrôler un exosquelette grâce à son cerveau grâce à un implant placé directement au contact de l'encéphale. Et c'est tant mieux. 

De Neurokiff à Neuralink en passant par le Love Computer.

En laissant temporairement de côté les applications médicales, en matière de bidouillage nous sommes aujourd'hui sur un éventail qui va du fantasme (pour l'instant en tout cas) de l'augmentation cognitive – Elon Musk et Neuralink, ou bien Bryan Johnson et son entreprise Kernel – jusqu'aux dispositifs bien réels et opérationnels d'observation et/ou de stimulation cognitive.

Parmi d'autres – mais l'initiative est Nantaise est portée par un collègue universitaire et camarade de jeu vous permettrez donc que je leur offre un espace publicitaire dont ils n'ont par ailleurs nul besoin – parmi d'autres disais-je, on pourra par exemple citer Neurokiff, un casque "neuronal" qui te permet de visualiser tes émotions pendant que tu dégustes un bon pinard, une bonne binouze ou un bonne pizza à l'ananas, au saumon et à la crème fraîche si vraiment tu n'as pas peur d'être lapidé par la mafia de la pizza italienne authentique.

"Les émotions sont représentées visuellement via une interface graphique sur tablettes. Elle sont également diffusées sous forme audible via une harmonie sonore s'intensifiant au fur et à mesure de l'expérience. Lorsque les quatre convives sont ensemble en intensité maximale, l'harmonie sonore est à son comble" (Source)

Les 4 "émotions" ou plus exactement "états émotionnels" ciblés par Neurokiff sont "l’excitation, la méditation, l’ennui et la frustration". Là par exemple nous sommes sûrs que ce jeune homme testant Neurokiff n'est pas en état de frustration, ni de méditation ni d'ennui 😉

Rea_221116_005

Et comme je sais que vous allez me poser la question bande de petits canaillous, on me signale dans l'oreillette qu'une version sextoy de Neurokiff n'est pas à l'étude. En tout cas pas pour l'instant mais il n'y a pas de raison valable pour que les interfaces cerveau-machine échappent à la règle 34. Donc … patience 🙂

Citons aussi le bandeau "Dreem" qui a bénéficié d'une large couverture médiatique et dans lequel là encore une technologie d'électro-encéphalographie vient "mesurer" la qualité des différentes phases du sommeil et interagir pour stimuler certaines d'entre elles. Avec un "entraînement cognitif" qui joue souvent de l'imitation Pavlovienne revampée en "biofeedback".

Toutes ces entreprises sont les cousines ou les petites filles de boîtes qui ont émergé dans les années 2000 comme Haloneuro, Melomind ou bien encore Emotiv. Elles s'inscrivent en tout cas dans le même horizon qui en s'appuyant – la plupart du temps – sur des acquis scientifiques avérés en infèrent parfois des potentialités au service d'une injonction au "mieux-être" par le biais du tout mesurable, injonction médiée par la machine et qui pourrait dans quelques années faire émerger l'image d'un cerveau fonctionnel et compétitif aussi fantasmé ou socialement stigmatisant que l'est aujourd'hui l'image de ces corps stéréotypiques. La plasticité neuronale mise au service d'une plastique du cerveau.  

L'éventail des applications "neuronales" autour des interfaces cerveau machine pourrait donc se décliner selon le triptyque suivant, en allant de la plus inoffensive et récréative à la plus interventionniste : 

1. Catégorie ludique : Neurokiff. Mesurer certains pics cognitifs et émotionnels (excitation, méditation, ennui et frustration) pour en permettre la visualisation. C'est la tendance de nombre de produits et d'applications dans des champs qui vont du tourisme à l'oenologie en passant – aussi – par des applications possibles en médecine (psychiatrie notamment). Avec Neurokiff on regarde (les ondes cérébrales) mais on ne touche pas. Pour reprendre une terminologie souvent évoquée en informatique c'est du "read-only".     

2. Catégorie Read/Write Encephalography : Dreem. Agir sur la mesure de ces états cognitifs et émotionnels pour les modifier à l'aide de stimuli par prolongement ou par raccourcissement, pour éviter qu'ils ne se produisent ou pour en limiter certains des effets. Une technologie de lecture et d'écriture (Read / Write).

3. Catégorie transhumanisme : Neuralink. L'ambition est de démultiplier nos capacités cognitives (notamment) par des implants à même notre cerveau. C'est le projet d'Elon Musk et de très nombreux autres à commencer par la Darpa.

Si des applications médicales existent déjà et si d'autres sont attendues pour des patients en situation de grand handicap ou dans certains domaines liés aux maladies dégénératives (Parkinson et Alzheimer notamment), ne nous y trompons pas : la logique de développement de sociétés comme Neuralink ou de ses affidés se sert de l'ambition médicale comme d'un alibi alors que sa vocation première est de servir le fantasme d'une base avancée du transhumanisme à destination des plus fortunés. 

Donc entre le fantasme de l'augmentation cognitive (hors domaine médical) et la réalité de l'observation cognitive, il y a tout un éventail d'usages et de secteurs économiques que les interfaces neuronales ambitionnent de couvrir.

Sans oublier bien sûr, le "love computer" qui est inscrit depuis longtemps dans l'imagerie et la culture populaire, imagerie qui là encore reproduit la figure du casque d'électro-encéphalographie. Casque d'électro-encéphalogramme et son environnement filaire qui convoque instantanément la figure du marionnettiste et donc l'abolition de toute forme de volonté propre du sujet.

Sous-doues-vacances-1 

Le catalogue des ondes cérébrales.

Il y aurait une thèse à faire sur l'évolution de la représentation des "interventions" sur le cerveau dans la culture populaire (peut-être a-t-elle d'ailleurs déjà été faite, vous me le direz en commentaire), mais en résumé elles nous ont amené de la figure de la lobotomie et des électrochocs de vol au-dessus d'un nid de coucou jusqu'au au Love Computer des sous-doués, avec un petit détour par le lavage de cerveau d'Orange mécanique ou bien encore le Cérébro du professeur Xavier des X-Men.

Ob_8e7797_capture-d-e-cran-2015-02-22-a-20 Version béta du bandeau Dreem. 


X-men+cerebro
Version X du Neurokiff. 

Mais c'est un fait avéré, au début du 21ème siècle l'électro-encéphalographie n'est plus simplement esthétisée, elle est carrément devenue sexy. On a retiré les fils disgracieux et on peut voir le résultat directement sur une application dédiée de notre smartphone. Dont acte. Il n'y a plus rien d'inviolable, de quasi-mystique ou de brutal : de fait la boîte noire qu'était notre cerveau s'est déplacée. La boîte noire est désormais davantage dans les algorithmes neuronaux que dans notre boîte crânienne.

Black Box Society mais à grands renforts d'électro-encéphalie sexy. 

Diapositive1

Rapide et pas du tout exhaustive mosaïque de la représentation de l'électro-encéphalographie et des interfaces cerveau-machine

à travers les âges farouches de la culture populaire mais pas que.

Click to Enlarge (mais l'image uniquement)

Comme souvent en matière de technologie et de numérique, la question principale derrière une "nouvelle" technologie, est celle de la classification et de la sériation opérationnelle, c'est à dire la capacité de ladite technologie à trouver du sens à ce qu'elle capte, à ce qu'elle mesure et à ce qu'elle classe ; et l'intentionnalité que l'on y met : surveiller et punir. Ou Kiffer. Mais à l'échelle de ce que l'on prétend mesurer il devient difficile ou dangereusement naïf de ne vouloir mettre en avant que l'expérience du kiff. Le passage à l'échelle, la "scalabilité" de ces technologies numériques de la mesure fait que le moindre startupper ne devrait plus pouvoir faire l'économie d'une réflexion éthique et politique sur le service qu'il souhaite lancer. Mais c'est – presque – un autre sujet. 

Je l'ai déjà largement développé sur ce blog, le succès de Google repose sur sa capacité à avoir construit un index et un catalogue de pages web. Celui d'Amazon sur un index et un catalogue de produits. Celui de Facebook sur sa capacité à avoir construit un index et un catalogue de profils. Dans un autre genre, peut-être plus anecdotique, le succès de Netflix est également et avant tout un succès de catalogue. De nouveaux acteurs sont en train de bâtir un index et un catalogue de nos émotions. Au-delà de chacune de ces plateformes, c'est le web tout entier qui est pensé comme un catalogue de collections, et qui tire d'ailleurs ses racines du "Whole Earth Catalog" originel.

Et désormais donc dans le domaine des interfaces cerveau-machine d'autres acteurs sont en train d'essayer de construire un nouvel index et un nouveau catalogue. Un index et un catalogue des ondes cérébrales. Qui ouvre un champ infini de possibles. Comme celui que l'on croirait tout droit tiré d'un roman de SF des années 60 où il serait possible de corriger les erreurs d'un robot par la pensée, simplement en le regardant agir. Pour ce faire le dispositif imaginé par une équipe du MIT : 

"repose sur la lecture de l'activité cérébrale via un casque EEG couplé à un algorithme d'apprentissage automatique qui classe les ondes cérébrales en temps réel dans un délai de 10 à 30 millisecondes. Il va repérer les signaux cérébraux appelés ErrPs (error-related potentials ou potentiels liés aux erreurs) qui se produisent dès que notre cerveau identifie une erreur." (Source)

Neurokiff-presentation-casque-snapshotIllustration issue de la présentation de Neurokiff.

Ondes sensuelles.

Je vais vous épargner un cours que je serais par ailleurs tout à fait incapable de faire mais pour résumer disons qu'en l'état actuel de nos connaissances notre cerveau émet des ondes cérébrales dont on mesure la fréquence en Hertz et qui se classent (en gros toujours) en 5 grandes catégories correspondant à autant "d'état de conscience" eux-mêmes liés ou déterminés par différentes activités cognitives. Ainsi : 

"Lorsqu'il est en veille active, notre cerveau émet surtout des ondes rapides, dites bêta (de 12 à 30 Hz), avec l'apparition d'ondes gamma spécifiques (vers 40 Hz) lors d'une activité intellectuelle et mentale (intense). Alors qu'en relaxation légère ou éveil calme (assis dans son canapé yeux fermés par exemple), ce sont des ondes alpha (de 8 à 12.Hz) qui dominent. Les ondes thêta (4 à 8 Hz) correspondent, elles, à la relaxation profonde, la méditation et à un certain type de sommeil (paradoxal). Enfin, en sommeil profond, les ondes majoritaires sont de type delta (de 0,5 à 4 Hz)"

Voilà. Merci Sciences et Avenir

Donc tu prends un casque d'électro-encéphalogramme sexy, tu le calibres pour qu'il mesure des ondes alpha, béta, gamma, delta, théta, plus une ribambelle de signaux cérébraux spécifiques à certains contextes de tâches (comme les "ErrPs" – error-related potentials – citées plus haut), tu prends aussi un algorithme pour mesurer tout ça en temps réel, un autre algorithme avec du machine et du deep learning pour modéliser des motifs ("patterns") correspondant à différents scénarios et / ou états cognitifs, et à partir de là tu n'as normalement plus qu'à choisir un bon argumentaire marketing pour aller conquérir la start-up nation 🙂 #Easy 

Sauf que non à cause – notamment – des ondes faussement positives.

Parce que bien sûr c'est quand même un peu plus compliqué que cela. Chacune de ces étapes comprend un certain nombre de biais techniques, informatiques, psychologiques et neurologiques difficilement mesurables et objectivables en l'état de nos connaissances actuelles sur le cerveau, comme rappelé plus haut dans cet article. Et en matière de reconnaissance et de classement d'ondes cérébrales, comme en matière de reconnaissance de formes, de visages, ou de comportements de terroristes prêts à passer à l'acte, le nombre et le risque de faux-positifs est considérablement élevé. 

<Petite incise que vous pouvez sauter puisqu'elle est une réflexion plus générale sur "l'intelligence artificielle" et la question des classifications> Pour ce qui est de sérier, d'ordonner et de classer, l'informatique et les algorithmes sont évidemment bien plus efficaces et en tout cas plus rapides que nous ne pourrons jamais l'être à l'échelle de la démesure des données à collecter et à classer. Or avec cette efficacité et cette facilité apparente vient très vite l'illusion ou la croyance de la prédictibilité. D'où le fantasme auto-entretenu d'une forme "d'intelligence" artificielle. Qui fait l'impasse sur la faculté de synthétiser et de représenter d'une manière différente les données, les idées, les concepts ou les mondes que l'on prétend explorer. La vogue actuelle d'une "intelligence artificielle" mal nommée tend à faire accroire qu'il suffit de classer pour comprendre alors qu'il est impossible, vain ou dangereux de classer si l'on n'est pas d'abord capable de comprendre. La compréhension précède la classification comme l'existence précède l'essence. Et toute classification sans compréhension ou avec une compréhension a posteriori n'est souvent que l'alibi d'intentions soit purement commerciales soit simplement … inavouables.

"Il n’y a rien que l’homme soit capable de vraiment dominer : tout est tout de suite trop grand ou trop petit pour lui, trop mélangé ou composé de couches successives qui dissimulent au regard ce qu’il voudrait observer. Si ! Pourtant, une chose et une seule se domine du regard : c’est une feuille de papier étalée sur une table ou punaisée sur un mur. L’histoire des sciences et des techniques est pour une large part celle des ruses permettant d’amener le monde sur cette surface de papier. Alors, oui, l’esprit le domine et le voit. Rien ne peut se cacher, s’obscurcir, se dissimuler." Bruno Latour, Culture technique, 14, 1985 (cité par Christian Jacob dans L’Empire des cartes, Albin Michel, 1992).

C'est ainsi que par des formes de glissements successifs nous nous sommes d'abord émerveillés puis apeurés de la capacité de Google à mettre l'étendu du web sur une feuille de papier qui était aussi cette fenêtre de navigateur s'ouvrant sur une zone de recherche au milieu d'une page blanche. C'est ainsi qu'ensuite nous avons continué de nous émerveiller puis d'être apeurés en comprenant que cela lui était devenu possible par cette formule mathématique de l'algorithme tenant elle aussi sur une simple feuille de papier. Google a en un sens réussi à gagner cette manche de l'histoire des sciences et des techniques. Il est parvenu, en tout cas ses ingénieurs, à construire "les ruses permettant d'amener le monde sur cette surface de papier." Et à mettre ces ruses à notre disposition en les assortissant d'une promesse d'objectivité et de rationnalité aussi intenable qu'incompatible avec le modèle économique qu'il s'était choisi. Et c'est à ce moment précis qu'il a choisi de déployer un autre type de ruses. Les ruses de la persuasion</Fin de la petite incise>

Intentionnalité et interprétation.

L'un des problèmes majeurs auquel il nous faut être attentif est celui de l'intentionnalité réelle de la classification, de la collecte et de l'analyse des ondes cérébrales aujourd'hui comme des profils, des émotions, des produits ou des documents hier. Et l'autre enjeu majeur, lié et corrélé au précédent, est celui de leur "polysémie" qui rend toute interprétation aussi scientifiquement complexe que politiquement ou économiquement problématique.

Lorsque l'on analyse un historique de recherche (des mots-clés), un historique d'achats (des produits), un historique de navigation (des pages web), chacun de ces éléments, qu'il soit pris isolément, dans un contexte de tâche donné, ou dans le temps d'une ou plusieurs sessions, peut se prêter à des interprétations tout à fait contradictoires ou erronées. Exemple : je n'ai à titre personnel aucun goût pour la musique cubaine mais c'est bientôt l'anniversaire d'un ami très pointu sur le sujet et je vais donc ma taper plusieurs sessions, recherches et consultations qui auront trait à ce sujet qui ne m'intéresse pourtant en rien. Même chose si je suis un universitaire travaillant sur le terrorisme, mes sessions de navigation vont être semblables à celle de quelqu'un en voie de radicalisation se préparant pour le Djihad. Bref et comme je l'avais expliqué par ici il y déjà 8 ans

"Apostolos Gerasoulis (le papa du moteur de recherche Ask Jeeves) s'interrogeait en regardant défiler les 10 millions de requêtes quotidiennes d'Ask Jeeves : "Je me dis parfois que je peux sentir les sentiments du monde, ce qui peut aussi être un fardeau. Qu'arrivera-t-il si nous répondons mal à des requêtes comme "amour" ou "ouragan" ?"

Nous disposons aujourd'hui de technologies capables de mettre peu ou prou les mêmes grands acteurs en capacité de sentir et de mesurer non plus les sentiments du monde au travers de requêtes mais chacun de nos sentiments en deçà d'un seuil intime de verbalisation. Et même si, depuis le confort de nos démocraties, nous poussons encore des cris d'orfraie lorsqu'il s'agit de la Chine, cela ne nous empêche pas de nous ruer vers tous les outils de mesure et de quantification de soi, fussent-ils cérébraux, dès qu'ils débarquent sur le marché. La capacité des technologies n'est rien sans le seuil d'acceptation sociale qui l'accompagne et la précède. Et il semble, pour le meilleur et pour le pire, que nous soyons aujourd'hui prêts à jouer à bidouiller dans nos ondes cérébrales car la "promesse" de bénéfices à l'échelle individuelle semble – à tort – l'emporter sur les risques à l'échelle collective.  

Le stade anal de la Start-Up Nation.

Mais pour revenir à la citation d'Apostolos Gerasoulis, qu'arrivera-t-il si nous catégorisons mal tel ou tel groupe ou type d'ondes cérébrales ? Le langage est un construit que nous observons et maitrisons depuis quelques millénaires et qui continue pourtant de pouvoir nous tromper de la manière la plus triviale qui soit. Les ondes cérébrales sont d'une part bien plus complexes et d'autre part nous ne sommes qu'au balbutiement des techniques qui permettront d'en maîtriser vaguement l'essentiel. Mais le marketing et les marchés sont impatients. Ils n'attendront pas.  

Or faute d'en maîtriser suffisamment le vocabulaire et la syntaxe, nous sommes, dans le registre du champ de l'analyse des émotions et des ondes cérébrales, dans une approche qui serait celle d'un stade anal fantasmé. L'idée même que nos émotions puissent être rendues visibles, observables par une médiation technologique plus ou moins invasive est littéralement jouissive. Il nous devient possible de "voir l'invisible" et d'ensuite jouer avec nos propres sécrétions émotionnelles. Stade anal dont la définition adaptée ressemblerait un peu à cela : 

"Les émotions, zone de passage entre l'intérieur du corps et le monde extérieur, sont soumises à la volonté de l'adulte qui s'aperçoit qu'il peut visualiser les siennes ou celles des autres et en retire donc un plaisir d'observation ou de manipulation découlant de l'application de sa volonté. Il prend progressivement conscience du soulagement lié au fait de les laisser sortir pour être vues : c'est la découverte du plaisir d'expulsion. Selon cette théorie, il est fréquent que l'adulte s'intéresse à ses ondes cérébrales et les manipule, les explore ou les exhibe."

Vers une nouvelle phrénologie émotionnelle ondulatoire et cérébrale ?

La dimension de l'affect et des émotions est une question qui traverse le web en tant qu'écosystème et les plateformes en tant que biotopes informationnels (cf l'ouvrage de Camille Alloing et Julien Pierre sur le web affectif), mais c'est aussi une question qui infuse lentement et sûrement du côté matériel et logiciel dans le champ de "l'affective computing" ("informatique affective"). Et c'est surtout un Graal publicitaire dont l'ogre du marché attend de se repaître goulûment. 

De la même manière que les technologies de vidéo-surveillance en général et de reconnaissance faciale en particulier connaissent depuis une petite dizaine d'années une accélération qui – cumulée à l'idée martelée que la sécurité ne peut se faire qu'aux dépens de la vie privée – fait qu'elles cochent à peu près toutes les cases du bingo de l'état totalitaire, les technologies de "reconnaissance émotionnelle" et autres "cérébro-surveillance" ou "neuro-protection" pourraient rapidement devenir le bras armé d'un cauchemar Orwellien pour le coup assez inédit et bien plus cauchemardesque que les pires dystopies imaginées jusqu'ici. A ce titre, "la Chine collectant les données directement depuis le cerveau des travailleurs à une échelle industrielle" n'aura été que l'avant-goût amer de ce qui nous attend.

Qui mesurera les ondes cérébrales du désespoir ?

Être capable de mesurer les "émotions" et les affects c'est déjà se croire investi d'une mission pour les corriger, les orienter ou les contraindre. La vieille histoire de Pandore, ou celle du Pharmakon, de ce qui est à la fois remède et poison. Comment ne pas soutenir par exemple toutes les recherches permettant d'entrevoir les moyens de lutter contre la dépression ? Mais comment dans le même temps garantir que les électrodes implantées à même notre cerveau pour réguler nos émotions et nos "humeurs" (dans le cadre d'un programme de recherche de la DARPA notamment) ne nous fassent pas basculer dans une dystopie déjà écrite et décrite dans nombre de romans de SF ? 

Alors oui comme disait Léo

"Nous vivons une époque épique mais nous n'avons plus rien d'épique. Pour que le désespoir même se vende, il ne reste qu'à en trouver la formule. Tout est prêt : les capitaux, la publicité, la clientèle. Qui donc inventera le désespoir ?"

Les ondes cérébrales et les interfaces cerveau-machine sont aussi la promesse Faustienne de cette formule du désespoir qu'il nous faudra veiller collectivement à tenir soigneusement éloignée de tous les marchands du temple et de toute forme de projet ou d'ambition de gouvernementalité algorithmique. Hors les cas relevant de la pathologie médicale avérée, il est impératif que nous demeurions les seuls capables de gouverner nos émotions, y compris au risque de ne jamais y parvenir parfaitement. Tout projet, tout développement et toute ambition économique sur ces questions deviendra nécessairement à court ou moyen terme un projet politique. Et tout projet politique visant à mesurer ou à contrôler des états émotionnels ne peut pas être autre chose qu'un projet politique totalitaire. 

Le cerveau comme affordance.

Dès que l'on touche au cerveau et aux émotions, la question des affordances (re)devient centrale. Une interface est un objet, un objet qui crée et autorise des interactions en fonction d'un certain nombre d'affordances qui sont, pourrait-on dire, ses propriétés élémentaires suggérées. Ces affordances peuvent être suivies et efficaces ou elles peuvent aussi être détournées ou contournées. La question des interfaces cerveau-machine (ICM) pose assez crânement et de manière inédite la question des affordances "neuronales" et cognitives : quelle est la capacité de telle ou telle onde cérébrale à suggérer sa propre utilisation ? Et en poussant la logique affordancielle et utilitariste jusqu'à son terme, il faut donc également se demander quelle est la capacité de telle ou telle émotion ainsi captée à suggérer là encore sa propre utilisation ? Le plus effrayant dans l'affaire n'étant pas le fait de se poser cette question mais plutôt que les gouvernements autoritaires ou les programmes de recherche à visée militaire soient les plus prompts à tenter d'y apporter une réponse.

Sur ce qu'il convient désormais de nommer "le marché des neuro-prothèses", promis à un avenir radieux pour autant de bonnes raisons que de mauvaises ambitions, ce n'est plus nous qui serons libres de suivre ou de détourner les affordances de ces objets et de ces systèmes techniques implantés directement dans notre corps ou dans notre cerveau. En dehors des cas strictement médicaux de remédiation, la logique "d'intégration", "d'in-corporation" de ces technologies neuroprothétiques suit une logique programmatique d'abandon de notre libre-arbitre ou à tout le moins une contrainte supplémentaire scellée sur notre pouvoir de l'exercer.   

La dernière tentation du Christ réseau social.

Le modèle économique des GAFA est connu est documenté. C'est celui d'une régie publicitaire. Ils vendent de l'attention, du temps de cerveau disponible comme on disait dans l'ancien monde de la télévision. Et opèrent une transition de cette économie de l'attention vers une économie de l'occupation. Pour faire cela de la manière la plus efficace possible, de la manière la plus immédiatement efficiente et rentable, ils ont pendant longtemps été contraints de se limiter à l'exploitation de nos requêtes, de nos historiques de recherche. Et se sont alors mis à nous proposer des recommandations. Ce fut l'âge de "la base de donnée des intentions" comme l'appelait John Battelle. Ils jouaient alors à "deviner" avec une quasi-certitude statistique quels seraient nos prochains besoins pour mieux être en capacité d'y répondre et, le cas échéant, de les susciter. Mais le flou était encore trop grand. Il fallait se rapprocher encore et encore.

Alors les mêmes se mirent à prêter attention à nos émotions. A vouloir les décrire, les cataloguer, les mesurer en temps réel. Et aujourd'hui c'est une autre base de données, celle des émotions, qui est en train de se construire et de s'écrire. Et avec elle la promesse pour l'industrie publicitaire de connaître un nouvel élan, permettant à la publicitarisation du monde de s'étendre davantage lors même que l'on croyait cela impossible tant tous les territoires connus semblaient déjà (re)couverts de publicité. Mais une nouvelle fois ce n'était pas encore assez.

Il restait une dernière frontière. Capter l'intentionnalité de la pensée au plus près de là où elle était en train de naître. Et la capter, l'enregistrer et la "délivrer" sans même qu'il soit besoin de la verbaliser (requête écrite) ou de l'oraliser (requête vocale). Cela s'appelle la subvocalisation. Un secteur qui intéresse beaucoup … allez, devinez qui.

Voilà.

Vous chauffez.

Vous y êtes presque. 

Facebook évidemment. Facebook qui dans un contexte où les interfaces vocales explosent et (re)posent d'immenses problèmes de vie privée dignes des plus belles heures de la Stasi, Facebook qui déploie des efforts et des budgets de R&D à sa démesure pour déployer à court terme des interfaces subvocaliques nous rendant capables "d'écrire directement avec notre cerveau".

"A brain-computer speech-to-text interface".

L'objectif affiché par l'équipe en charge du projet est de nous rendre capables de taper 100 mots à la minute "par la pensée" – c'est à dire plus rapidement qu'avec une saisie manuelle – en utilisant une technologie non-invasive d'imagerie neuronale capable de transmettre et de transformer cette activité cérébrale en autant de "commandes" pour différents dispositifs électroniques. L'article de The Verge qui en Avril 2017 faisait état de cette annonce de Facebook rappelait qu'à ce jour (en 2017 donc) une équipe de Stanford avait réussi à permettre à un patient paralysé de taper 8 mots par minute par la pensée mais au moyen d'électrodes implantées dans son cerveau. Entre les 8 mots par minute au moyen d'électrodes nécessitant une chirurgie invasive, et les 100 mots par minute simplement à l'aide d'un casque ne nécessitant aucune chirurgie, le fossé peut sembler béant mais Facebook a annoncé un délai de 2 ans pour tester les premiers prototypes dans un cadre médical avant d'étendre le système à des applications commerciales.

La question immédiatement posé par quelques observateurs, dont The Intercept, est de savoir si Facebook utilisera cette activité cérébrale dans un cadre publicitaire. Ce qui pourrait être fait ce plusieurs manières. Soit, comme le font déjà les assistants vocaux, en captant cette fois-ci non pas simplement les conversations ambiantes mais la formation de notre pensée au moment même précédant sa formulation, soit en se servant de l'analyse en temps-réel de notre activité cérébrale pour mesurer nos états émotionnels et nous afficher les publicités les plus opportunes ou même procéder à l'envoi de message subliminaux. Un scénario qui est malheureusement aussi totalement flippant qu'ils est parfaitement vraisemblable. 

En dehors d'applications strictement réservées au domaine médical, l'appareillage de l'humain vécu comme une extension des possibles ou une facilitation et une simplification de son rapport au monde et aux autres est une médaille à deux faces où le prix sociétal à payer est systématiquement celui d'une subordination et d'une aliénation aux entreprises pourvoyeuses des technologies et des interfaces supposées nous "libérer" ou nous émanciper.

Orwell dans ta tête.

Lorsque sont arrivés les téléphones portables, il fallut un temps certain avant de comprendre que nonobstant les services qu'ils nous rendaient, le fait d'emporter en permanence avec nous cet ordinateur complet équipé d'un système de traçage redoutablement performant et activé par défaut ou persistant même lorsqu'on tentait de le désactiver, allait avoir un impact sur nos vies privées individuelles mais également sur nos manières de faire collectivement société. 

De la même manière avec l'arrivée des "assistants vocaux" sous la forme de ces enceintes connectées qui s'installent dans les salons de nos maisons nous commençons à comprendre qu'ils font peser une menace du même ordre mais toujours plus amplifiée et toujours plus diffuse.

Voilà pourquoi c'est dès aujourd'hui qu'il faut commencer à réfléchir à l'impact qu'auront ces dispositifs de "casques neuronaux" qui se développeront immanquablement dans les prochaines années. Et se demander si nous voulons réellement cela ou à tout le moins comment en circonscrire les dérives les plus graves, les plus prévisibles, les plus évidentes, dès aujourd'hui. 

Car après le World Wide Web (les documents), après le World Life Web (les profils), après le World Wide Wear (les objets et vêtements connectés) et toujours sous la menace de moins en moins diffuse d'une bascule dans le World Wide Orwell … nous voici avec les interfaces cerveau-machine à l'aube de l'avènement d'un World Wide Brain aux implications individuelles, sociétales, économiques et politiques capables de nous faire basculer dans une dystopie de manière bien plus radicale et rapide que chacune des étapes précédentes. 

Tourner 7 fois son cerveau dans son casque neuronal avant de penser.

Une interface est avant tout une temporalité entre nous et le monde. Une interface est avant tout un temps de latence. Une interface c'est le temps que nous allons prendre avant que la décision que nous allons formuler ne s'applique et ne s'exécute par l'intermédiaire du dispositif mécanique ou informatique qui est "derrière" l'interface. Le stylo est une interface qui nous laisse le temps de l'écriture. Le clavier également mais souvenons-nous que dans l'ordonnancement des lettres il fallut introduire du désordre précisément pour cesser d'aller trop vite à la saisie et pour retrouver ce temps de l'écriture qui est celui depuis la formation de la pensée jusqu'à sa traduction en mots couchés sur une feuille ou déposés sur un écran.

Il est des interfaces où le temps de latence est quasi-nul. Ce sont les interfaces biologiques. C'est la manière dont fonctionne notre corps en lien avec notre cerveau et qui guide, par exemple, l'ensemble de nos réflexes ou la plupart de nos capacités élémentaires (respirer, marcher …). Pour ces interfaces là, qui sont pourtant extrêmement complexes et mobilisent des circuits nerveux, neuronaux, cognitifs d'une complexité infinie, il n'y a pas de mise à distance nécessaire. 

Mais en rapprochant toujours davantage les technologies et les interfaces de notre corps, en les y "in-corporant", en voulant toujours davantage la disparition du dispositif, en voulant s'abstraire de toute médiation physique avec des objets techniques pour privilégier systématiquement des fonctions de décision et de commande qui soient au plus près de la formation de la pensée ou de sa (sub)vocalisation, à des niveaux de perception toujours plus "infra", nous fabriquons un rapport à monde et aux autres, un rapport à nos propres désirs, à nos propres émotions et donc à notre propre pensée qui est essentiellement pulsionnel et non plus rationnel, car ces interfaces cerveau-machine cherchent à évacuer le temps de latence ou de réflexion nécessaire à l'établissement d'une rationalité. Ce faisant elles remplacent notre rationalité par leur rationalité qui n'est que calculatoire. Et sont le ciment du projet politique d'une société entièrement calculable qu'il sera bientôt impossible de rendre de nouveau simplement … raisonnable.   

3 commentaires pour “Peut-on mesurer sans contraindre ? Bienvenue dans le World Wide Brain.

  1. Impressionnant article. Justement, cette année, est sorti un ouvrage un peu « cyber-punk » sur une telle interface cerveau humain/machine intelligente : « le nomade stellaire » d’Hector Loaiza
    Extrait : « Cette coopération homme/machine va donner sur écran des scénarios du futur industriellement exploitables dans un premier temps, ce qui va satisfaire tout le monde. »
    https://www.gravir.org/2018/03/01/le-nomade-stellaire-hector-loaiza/
    Même si le livre est aussi une grande fresque politico-maçonnique à travers 3 continents (me fait penser au « Pendule de Foucault », d’alleurs, pour les enjeux et la densité), ce livre, avec sa « machine pensante » m’a marqué… car à un moment du récit un équilibre se rompt.
    Comme vous le dites : « Ce faisant elles remplacent notre rationalité par leur rationalité qui n’est que calculatoire. (…) projet politique d’une société entièrement calculable  »

  2. Vos articles sont un régal à lire. Je connais pas d’autre blog (tout domaine confondu) qui propose une telle qualité de style, autant de sources, et surtout un tel esprit critique.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Articles similaires

Commencez à saisir votre recherche ci-dessus et pressez Entrée pour rechercher. ESC pour annuler.

Retour en haut