Le diabète de Dieu, les données médicales émergentes et le Health Data Hold-Up.

Prologue.

Voilà des années que je tiens sur ce blog la chronique des incursions répétées des GAFAM dans le secteur de la santé. Rappel des épisodes précédents (en tout cas des plus saillants). 

Voilà maintenant plus de 12 ans que les grands acteurs du numérique tentent d'entrer, le plus souvent par effraction, sur ce qui reste pour eux avant tout un marché : celui de la santé. 

Ils le font avec leurs armes (les utilisateurs captifs), leurs alliances (les clients de leurs régies publicitaires – banquiers et assureurs principalement), leurs stratégies (lobbying auprès des états) et leur matière première jamais à leur goût suffisamment extraite ou raffinée (nos données). Ils ont absolument tout tenté. Les expérimentations officielles avec des agences publiques ou avec des cliniques privées, la marché occidental comme le marché des pays en voie de développement comme l'Inde. Tout tenté et à tous les niveaux : du dossier patient à la prise en charge des soins en passant par tout l'éventail de l'appareillage du quantified-self de nos biorythmes à nos données génétiques. Voilà pour – en gros – les 9 épisodes précédents. 

Depuis mon dernier article, l'offensive n'a pas cessé, de nouveaux fronts se sont ouverts et parmi les acteurs jusqu'ici (un peu) en retrait, Facebook s'est désormais clairement positionné en termes d'ambitions. 

Building 8.

Ainsi on apprenait en Avril 2018, sur les cendres encore chaudes du scandale Cambridge Analytica, l'existence du projet "Building 8", visant à expérimenter un protocole dans lequel les plus grands hôpitaux américains étaient sollicités par des médecins mandatés par Facebook pour donner (à Facebook) des données patients (âge, pathologie(s), traitements, séjours hospitaliers) que Facebook croiserait avec ses propres données "sociales" (âge, situation familiale, nombre d'enfants, langues parlées, niveau d'engagement social – utilisateur actif, très actif, peu actif – etc.) le tout, accrochez-vous, dans l'idée d'améliorer la prise en charge du patient notamment dans les pathologies cardio-vasculaires :

"The project would then figure out if this combined information could improve patient care, initially with a focus on cardiovascular health. For instance, if Facebook could determine that an elderly patient doesn’t have many nearby close friends or much community support, the health system might decide to send over a nurse to check in after a major surgery."

Voilà. Donc non seulement c'est totalement flippant, mais en plus tout ça était vendu avec le credo "mais oui bien sûr c'est sécurisé et anonymisé et tout et tout ne vous inquiétez pas pour la vie privée". Depuis, justement, les révélations du scandale Cambridge Analytica, le projet "Building 8" est annoncé comme … "en pause". Yolo. 

Faut pas confondre prévention et pré-vente.

En Octobre 2019, Facebook toujours, lançait cette fois son application "Preventive Health", permettant, selon un air désormais connu, de t'inciter à faire en permanence plein de mesures et à collecter encore plus de données médicalisables pour – promesse marketing – te mettre en relation avec des partenaires de santé qui vont t'aider à on ne sait pas trop quoi mais c'est supposé t'aider, et surtout pour – stratégie business – affiner encore le c(r)iblage publicitaire et la dépendance à la plateforme par les notifications que l'on qualifiera de "healthy or scary" (= soit on t'envoie des notifications pour te dire que tout va bien mais que ça pourrait aller mieux, soit des notifications pour te dire de faire attention parce que ça va moins bien que prévu). 

De manière là encore tout à fait récurrente et significative à chaque fois que ces grandes plateformes se lancent sur le marché de la santé, l'application "Preventive Health" était calibrée et testée pour les marchés "US, India, Brazil, Bangladesh and Pakistan" avec 50 millions d'utilisateurs annoncés. Ce qui permet à la fois d'attaquer frontalement des pays pauvres et/ou ceux où le système de santé est totalement déficient, tout en maintenant l'argumentaire faussement philanthropique du "on va aider les pauvres puisque les états n'en sont pas capables".

Bref, ce que Facebook appelle "santé préventive" (https://preventivehealth.facebook.com/) n'est que le poste avancé d'une pré-vente de données de santé. D'autant que comme le faisait justement remarquer une journaliste, "l'info médicale que vous partagez sur les réseaux sociaux n'est pas protégée par le HIPAA**, ce qui veut dire que Facebook n'a pas d'obligation légale de protéger particulièrement ces informations." Business as Usual.

(** la HIPAA est la "Health Insurance Portability and Accountability Act", loi votée par le Congrès en 1996 visant à  faciliter et à réguler l'échange de données entre les acteurs de la santé.) 

EM_KejRXUAAzOlM

 

Pendant ce temps, en France : le Health Data Hub Hold-Up.

Début Décembre 2019 était donc lancé le "Health Data Hub". Une plateforme "dans le Cloud"visant à agréger et collecter des données de santé "pseudonymisées", données en provenance des fichiers patients des hôpitaux mais aussi de ceux des médecins libéraux ou des pharmaciens.

Côté Start-Up Nation on nous promet de l'intelligence artificielle partout et de la "privacy" à tous les étages, mais concrètement ce nouveau méga-fichier pose davantage de problèmes majeurs qu'il ne permet de résoudre de problèmes mineurs. Parmi ces problèmes, cette tendance à la centralisation et aux possibles croisements de données n'est pas sans rappeler l'épisode du fichier SAFARI dans les années 1970, lequel avait entre autres choses donné naissance à la CNIL, précisément pour disposer d'une autorité compétente sur ces sujets. 

Comme le précise Médiapart

"Cette nouvelle base de données, qui sera gérée par un groupement d’intérêt public (GIP), est destinée à remplacer l’actuel Système national des données de santé (SNDS) qui centralise déjà les principaux fichiers de santé, dont celui de l’Assurance-maladie, tout en élargissant considérablement sa portée. À terme, toute donnée collectée dans le cadre d’un acte remboursé par l’Assurance-maladie sera centralisée dans le Health Data Hub, des données des hôpitaux à celles du dossier médical partagé ou celles des logiciels professionnels utilisés par les médecins et les pharmaciens."

Au problème de l'interconnexion de ces données éminemment sensibles, à la fois dans leur dimension individuelle mais plus encore dans leurs enjeux collectifs, s'ajoute le problème de leur stockage dans une architecture technique ni nationale ni européenne. Non pas que je sois subitement devenu fan de l'OS souverain, mais en la matière nous disposons quand même d'acteurs en capacité de proposer des solutions d'hébergement (OVH pour ne citer que le plus connu qui d'après la chef du Health Data Hub "n'offrait pas de fonctionnalités suffisantes") pour éviter d'aller une nouvelle fois creuser la dépendance de l'état avec Microsoft (déjà outrancièrement et scandaleusement présent sur les marchés de l'armée et de l'éducation). Car oui, c'est bien Microsoft qui hébergera ces données. Et oui c'est absolument dingue et scandaleux.

Autre problème, celui de la réglementation des accès à cette banque de donnée, qui a vocation, dans le projet gouvernemental à être ouverte à tout un tas d'acteurs privés, start-up bien sûr (pourquoi pas) mais aussi aux acteurs privés de l'assurance et de la banque

"Les données financées par la solidarité nationale doivent être partagées avec tous les acteurs, publics comme privés, et bénéficier ainsi au système de santé, à la recherche, au tissu industriel et à l’assurance du maintien de la souveraineté nationale sur un secteur stratégique."

Si tu veux l'assurance de "maintenir la souveraineté nationale sur un secteur stratégique" tu ne commences pas par faire héberger toutes tes données sur les serveurs de Microsoft. Ou tu assumes de passer pour un parfait pitre. Expliquer en 2020 que stocker des données de santé nationales dans l'infrastructure technique de Microsoft (ou d'un GAFA ou d'une autre entreprise étrangère) ne posera aucun problème c'est soit prendre les gens pour des gros jambons soit être soi-même une grosse trompette. Et lorsque le projet a pour finalité de permettre des croisements de ces données de santé entre différentes bases déjà existantes sur un ensemble de domaines régaliens, c'est purement et simplement du foutage de gueule.

Ce qui se passe, et qui est assez grave à mon sens, c'est que nous sommes inexorablement en train de nous aligner sur la politique de dérégulation qui prévaut aux Etats-Unis concernant les données de santé. La plupart des lois fédérales des USA rendent en effet possible, pour les prestataires de soins de santé qui n'ont pas ou peu (sic) de contribution directe des patients, de partager ces données avec des entreprises extérieures privées, comme rappelé par le Wall Street Journal

Enfin, sinon nous ne serions pas vraiment en France, il faut noter que comme tout projet majeur, ce Health Data Hub a déjà donné lieu a un ahurissant pantouflage, son architecte en chef étant déjà parti rejoindre l'un des leaders mondiaux de l'exploitation des données de santé

Le plus désespérant dans toute cette affaire c'est que ce que la sphère politique a gagné en acculturation technique aux outils depuis le mulot de Chirac en 1996, elle l'a perdu (ou elle fait bien semblant) en acculturation aux enjeux sociétaux desdites technologies (ou en soumission aux lobbies).

L'association Interhop.org a publié un texte qui résume assez bien l'étendue des inquiétudes documentées, des ingérances prévisibles et des incuries manifestes dans ce dossier. 

Et l'agenda législatif n'étant plus que le faire-valoir des intérêts économiques en cours, on découvre aussi que l’hébergement de données hors de France sera bientôt légal pour les acteurs publics :

"Le projet de loi "d’accélération et de simplification de l’action publique", dit "Asap", contient des dispositions visant à lever les freins à l’adoption du cloud par les acteurs publics et notamment par les collectivités territoriales. Les données publiques ne seront plus systématiquement considérées comme des trésors nationaux et pourront donc être hébergées à l’étranger."

CQFD.   

Chante rossignol chante.

Connaissez-vous la loi dite du "nom trop mignon" ? C'est une loi (que je viens d'inventer) qui stipule que plus un projet mené par un grand groupe industriel a un nom rigolo, choupinou, kawaï et trognon, et plus le projet est potentiellement sournois, dangereux et liberticide. 

Le dernier projet de Google sur les données de santé s'appelait "Nightingale". Rossignol donc. Il s'agit pour Google et son partenaire Ascension (un des plus gros "acteurs" US du système de santé, qui exploite notamment deux mille six cents sites de soins, dont cent cinquante hôpitaux et cinquante maisons de personnes âgées) de récupérer dans 21 états les données de santé de plus de 50 millions d'américains, incluant, entre autres choses leurs noms, adresses, dates de naissance, dossiers hospitaliers, diagnostics, informations sur les allergies, antécédents médicaux, résultats de laboratoires, etc. 

Et le tout – sinon ce ne serait pas rigolo – sans que ni les patients ni les médecins n'en soient informés comme l'ont révélé le Wall Street Journal et le New-York Times en Novembre 2019 suite au témoignage d'un lanceur d'alerte. Rappelons qu'aux Etats-Unis l'accès aux données médicales de patients sans leur consentement est – hélas – parfaitement légal. Ascension a publié un communiqué de presse lénifiant, et Google un billet de blog à moitié tautologique ("dans le cadre de cet accord, les données d'Ascension ne peuvent être utilisées à d'autres fins que pour fournir les services que nous proposons dans le cadre de l'accord" (sic)), et à moitié blague Carambar ("les données des patients ne peuvent pas et ne seront pas combinées avec les données des consommateurs de Google"). 

Au moins avec le projet Building 8 de Facebook dont je vous parlais tout à l'heure, c'était plus clair. A fortiori lorsque l'on connaît, chez Google, l'historique polémique des précédents projets Deepmind et Patient Rescue qui datent d'à peine trois ans (et pour Deepmind, partenariat de Google avec le NHS, rappelons que l'idée selon laquelle les données médicales ne seraient pas croisées avec les données client de Google a volé en éclat en 2018).

Dans un podcast que le Wall Street Journal consacrait au sujet au début du mois de Janvier 2020, un journaliste racontait que lors d'une interview le Dr David Feinberg, le boss des services Google Health, lui avait tranquillement expliqué qu'ils revendiquaient le fait de ne pas demander aux gens leur consentement avant d'utiliser leurs données de santé, puisque le simple fait qu'ils utilisent Google Health faisait d'eux des "patients" et que comme l'entreprise faisait tout cela "pour leur bien", ben c'était suffisant (à partir de la 11ème minute du podcast). Quand je vous dis qu'ils sont dingues, je suis toujours en dessous de la réalité. 

Capture d’écran 2020-01-22 à 14.18.48Dr Google et Mr Feinberg. (Source : Google Health)

 

Carthage doit être détruire. Et les données de santé doivent être collectées. Elles l'ont été. 

<Point linguistique> En argot, le terme "Rossignol" désigne "un article ou un objet de peu de valeur, voire défectueux". Pour le projet Nighthingale, nos données (de santé mais les autres également) sont intrinsèquement défectueuses et seul Google peut les "(p)réparer". Le terme rossignol désigne aussi, en argot toujours, une "fausse clé". Pour le projet Nightingale il s'agit d'user une fausse clé pour accéder à ces données. </Point linguistique>

Jeff B. et Boris J. 

Mais l'affaire peut-être la plus emblématique et la plus cynique, et quelque part aussi la plus représentative du Yolo total sur ces sujets, c'est celle qui s'est déroulée au Royaume-Uni où l'on a appris qu'en juillet 2019 le ministre britannique de la Santé et des Affaires Sociales (Matt Hancock), avait signé un accord avec Amazon lui autorisant l'accès aux données de santé complètes de plus de 40 millions de patients, en échange – accrochez-vous – de la promesse d'Amazon d'aider les malades à obtenir de meilleurs conseils médicaux via … Alexa. Combo du Yolo. 

Comme Korii le résume très bien

"le gouvernement de Boris Johnson a remis entre les mains d'Amazon les clés du coffre-fort contenant l'intégralité des données de santé sensibles et personnelles de la grande majorité des Britanniques, avec toute latitude pour ce dernier de s'en servir comme il l'entend. L'accord empêche même le ministère de la Santé et des Affaires Sociales "d'émettre toute publicité sans une autorisation préalable écrite d'Amazon"."

Après ces révélations faisant suite à une enquête édifiante de l'ONG Privacy International, on aurait pu s'attendre à une marche arrière accompagnée d'excuses en mode "promis on ne le fera plus". Amazon, Alexa … je rappelle que l'on parle quand même d'une boîte et d'un dispositif dont on a découvert et documenté que de vrais gens très mal payés écoutaient en vrai et en permanence les conversations captées par cette enceinte connectée, même lorsqu'elle était éteinte, l'enceinte. Mais d'excuses et de marche arrière, il n'y en eut point. Tout au contraire. Dans le genre je vais vous tendre mon majeur plutôt que de répondre, Amazon a expliqué que les gens n'auraient accès qu'à du contenu général sur la santé et que donc bon ben voilà quoi. Basta. Et Boris Johnston a maintenu l'intégralité de l'accord.

Rien à foutre de rien.

Littéralement.

Ce n'est pas parce qu'il y a des données de santé qu'il existe un algorithme du soin.

Partout dans le monde (mais notamment aux Etats-Unis), les soignants indiquent faire face à un déluge de sollicitations pour accéder à toujours davantage de données de santé, dans des cadres toujours moins contraints, toujours plus "en phase avec le marché", sollicitations venant aussi bien de startups que des GAFAM ou de toute la chaîne intermédiaire classique d'assureurs et de banquiers. Toujours au titre de l'intérêt du patient, de l'expérimentation, et toujours bien sûr dans le respect total de la confidentialité.

lol.

Partout dans le monde (cet article n'en est qu'une petite illustration autour des scandales les plus manifestes) des entreprises privées oligopolistiques font absolument n'importe quoi avec nos données de santé, la plupart du temps avec l'aval des gouvernements. 

Et lorsque partout dans le monde le modèle de retraite sera principalement celui de la capitalisation et de l'assurance privée (et que le modèle de la santé le sera donc également étant entendu que les 3ème et 4ème âge sont ceux les plus coûteux), et qu'en plus de cela les données de santé seront à disposition d'acteurs industriels oligopolistiques (les GAFAM) dont le modèle économique repose sur l'exploitation de ces données de manière assurantielle** (= en lien avec les banques et les assurances), alors la question des programmes de santé n'aura plus rien à voir avec le soin. 

** Ce que j'ai tenté de définir, dans plusieurs articles, comme le "web assurantiel".

Emergent Medical Data.

Dans toute cette affaire, l'une des clés de compréhension essentielle est celle des "donnés médicales émergentes", en anglais les "Emergent Medical Data" (EMD). C'est le nouveau Graal techno-fantasmé de firmes qui confondent éthique et business-plan autour de l'horizon d'une prédictibilité totale de nos comportements sociaux comme biologiques, prédictibilité qu'elles seules seraient en mesure de contrôler, d'analyser et de prescrire. 

C'est un chercheur américain, Mason Marks, qui a proposé ce concept et c'est effectivement, la bonne question à se poser sur le projet Nightingale de Google (et sur la plupart des autres évoqués dans ce billet de blog). Les EMD sont des signaux faibles, des données sans lien apparent avec la santé, mais à partir desquelles il va être possible de produire des analyses comportementales relevant du domaine médicalisable. Dit autrement et expliqué par Mason Marks

"Les données médicales émergentes sont des informations sur la santé, déduites par l'intelligence artificielle à partir du comportement banal des consommateurs. Chaque fois que nous interagissons avec la technologie, nous laissons des traces numériques de notre comportement qui servent de matière première aux entreprises qui exploitent les EMD."

Ou plus précisément :

"I call it Emergent Medical Data (EMD) because at first glance, it has no relationship to your health. Companies can derive EMD from your seemingly benign Facebook posts, a list of videos you watched on YouTube, a credit card purchase, or the contents of your e-mail. A person reading the raw data would be unaware that it conveys any health information. Machine learning algorithms must first massage the data before its health-related properties emerge."

Derrière ces EMD il y a bien sûr plein d'enjeux de santé publique allant de la prévention du suicide à la détection de pathologies cardio-vasculaires mais il y a aussi, et surtout, d'immenses enjeux financiers, à la fois pour les firmes de technologies capables de collecter et d'explorer ces EMD, et pour les régies publicitaires susceptibles de les utiliser en lien avec les secteurs de l'assurance et de la santé privée. 

Capture d’écran 2020-01-22 à 16.54.19Extrait d'une présentation de Mason Marks (diapo 4) au titre plus qu'évocateur : 
"Algorithmic Disability Discrimination: How Corporate Mining of Emergent Medical Data Promotes Inequality"

Et puis il y a un vrai bon gros problème de fond que l'on pourrait résumer ainsi : à partir de quel moment et sur quelle base scientifique autre que celle de l'exploitation de larges corpus non réplicables parce qu'à la seule disposition d'acteurs privés**, à partir de quel moment, sur quelle base scientifique, et sous la supervision de quelle autorité médicale peut-on considérer que certains comportements peuvent être des indicateurs fiables de pathologies ou de troubles médicaux non encore diagnostiqués ou échappant en tout cas au circuit médical (et légal) du diagnostic ?

(** Sur la question, déterminante, de la maîtrise de corpus, relire ce que j'écrivais ici et qui donna lieu à cet article scientifique co-écrit avec deux collègues)

Le diabète de Dieu.

Je vais vous donner un exemple documenté que Mason Marks cite lui-même. Il s'agit d'une étude "scientifique" menée par des équipes de Facebook, analysant les données médicales et les publications sur les réseaux sociaux de 999 utilisateurs – consentants – de Facebook. Un corpus de 20 millions de mots. Article intitulé : "Evaluating the predictability of medical conditions from social media posts".

Parmi les résultats surprenants de cette étude on lit que les publications contenant un champ lexical religieux (comme les mots Dieu, famille ou prière) seraient des prédicteurs forts du … diabète. Je vous cite le passage en entier (en gras la partie sur le diabète de Dieu) : 

"Many topic markers of diagnoses reveal characteristic behavior or symptoms. For example, alcohol abuse was marked by a topic mentioning drink, drunk, bottle. Topics expressing hostility (e.g. people, dumb, bulls**t, b**ches) were the predominant marker of drug abuse and also marked psychoses. Topics most associated with depression suggested somatization (e.g. stomach, head, hurt) and emotional distress (e.g. pain, crying, tears). Other markers may suggest socio-environmental variables associated with disease risk; for example, diabetes was predicted by religious language (e.g. god, family, pray) even when controlling for demographic variables. This does not mean that everyone mentioning these topics has the condition, but just that those mentioning it are more likely to have it. For example, the top 25% of patients mentioning the (god, family, pray) topic were 15 times (95% CI: [3.16, inf]) more likely to have been diagnosed with diabetes than those in the bottom 25% of mentioning that same topic. This association may be specific to our patient cohort and suggests the potential to explore the role of religion in diabetes management or control."

Vous noterez la formule "cela ne veut pas dire que ceux qui mentionnent ces sujets ont la pathologie, mais que ceux qui les mentionnent sont davantage susceptibles de l'avoir." (sic) Et le "cette association peut être spécifique à notre cohorte de patients et elle suggère d'explorer le rôle potentiel de la religion dans la gestion et le contrôle des différents types de diabète". (sic again) Et le reste des corrélations est à l'avenant. 

 

Journal.pone.0215476.g002

 

Toute l'étude pose, à mon avis en tout cas, d'énormes problèmes en termes de biais et d'heuristiques de jugement. Mais, comme d'autres célèbres études scientifiques pour lesquelles Facebook n'avait pas eu la délicatesse de chercher à obtenir le consentement de ses utilisateurs, elle répond avant tout à une commande qui est celle de prouver l'agentivité d'une technologie d'ingénierie linguistique dans une architecture technique discursive particulièrement maillée et touchant aussi bien à l'expression publique qu'à l'intime. Il s'agit de nous convaincre que Facebook a la capacité d'agir pour mieux nous inciter à accepter de lui déléguer la possibilité de le faire à notre place.

Si l'on accepte l'idée qu'il peut y avoir, sinon une causalité mais déjà une corrélation forte entre le fait d'utiliser tel type de vocabulaire et d'avoir tel type de pathologie, et si l'on accepte l'idée qu'une plateforme soit en capacité de détecter et de tracer ces corrélations pour nous orienter vers des parcours publicitaires ou des services applicatifs relevant du médical dans sa dimension préventive ou d'urgence, alors primo on se soumet à l'injonction de confier à ces firmes toujours plus de données y compris médicales et intimes ; deuxio on légitime en droit et en conscience la surveillance qu'elles exercent sur nos vies ; et tertio on leur prête, au moins au plan de la symbolique sociale, un pouvoir totémique de guérison qui est l'équivalent de celui de la figure du médecin (le diagnostic) ou du soignant (l'accompagnement thérapeutique). 

D'ailleurs les auteurs de l'étude ne se privent pas de le suggérer plus que fortement dans leur conclusion

"Just as contemporary biobanking aims to collect biosamples that reflect the genome and to link individual genetic information to phenotypic manifestations of health, social media data can be conceived as a “social mediome” whose individual expression can also be banked in a registry and linked to more phenotypic markers of health and disease."

Et de poursuivre et conclure

"Social media, like genomic information, offers enormous promise to personalize health care. (…) People’s personality, mental state, and health behaviors are all reflected in their social media and all have tremendous impact on health. This is the first study to show that language on Facebook can predict diagnoses within people’s health record, revealing new opportunities to personalize care and understand how patients’ ordinary daily lives relate to their health."

Ce qui est tout à fait fou. Entre Orwell et Huxley. 

D'autant que, je le rappelle encore une fois, l'autre énorme avantage de ces EMD est que puisqu'il ne s'agit pas littéralement de données médicales même si elles sont utilisées à des fins de "diagnostic" … elles n'entrent pas dans les cadres légaux de contrôle et de protection des données médicales (notamment le HIPAA que j'évoquais plus haut). Du coup c'est la fête du slip.

Datasploitation médicale : jusqu'où ne pas aller trop loin ?

Alors bien sûr il ne s'agit pas de plaider pour un retour à la saignée comme thérapeutique universelle. Il existe naturellement des usages vertueux et nécessaires des données de santé.

A condition qu'un cadre éthique soit garanti si l'on veut éviter qu'une nouvelle fois l'automatisation ne soit pas d'abord celle des inégalités, dans un secteur (l'accès aux soins) qui dans nombre de pays – y compris très riches – n'est déjà pas vraiment un modèle d'égalité républicaine. 

Et à condition que le cadre technique (algorithmique) accompagnant le cadre éthique soit à la fois "transparent à l'inspection, prévisible pour ceux qu'il gouverne, et robuste contre toute manipulation" (selon la formule de Bostrom et Yudowski dans "The Ethics of Artificial Intelligence"). 

La question nouvelle qui se pose aujourd'hui à nos sociétés, sur ces questions de données médicales comme sur d'autres enjeux comme la reconnaissance faciale, c'est de réfléchir à un horizon de débat qui commence à émerger et qui explique que la quête d’algorithmes ou de technologies plus justes "ne réside peut-être pas dans leur amélioration, mais dans le fait de décider de ne pas les déployer". Pour que de l'ensemble des finalités, de cette téléologie des usages de tous ces programmes, algorithmes et données de santé, ne subsiste pas socialement qu'une inquiétante tératologie.

C'est le propre des secteurs dit "régaliens" (la santé, l'éducation, la sécurité) que d'obliger à questionner le fait que chaque déploiement techno-algorithmique s'accompagne d'un risque élevé et presque inhérent de dévoiement. Pour cesser de foncer tête baissée vers un accident industriel majeur en termes de santé publique, il est vital, absolument vital aujourd'hui, que toute exploitation de données de santé publique ne puisse être déployée que tant que l'on disposera d'un service public de santé seul capable d'en garantir la conservation, l'accès et le traitement dans un cadre éthique et dans une transparence technique totale.

Or nous sommes en train de faire exactement l'inverse. Il s'agit d'une fuite en avant. Tout cela ne tient pour l'instant que par l'inertie de la vitesse propre au mouvement de fuite lui-même. Mais quand la toupie va cesser de tourner … 

One more thing.

Il est impossible de parler aujourd'hui de médecine et de données médicales émergentes (EMD) et du rôle des grandes plateformes de numérique sans évoquer cette autre pièce majeure du puzzle que l'on appelle l'Evidence Based Medecine (EBM), la médecine fondée sur (selon la traduction) les faits, l'évidence ou les preuves, concept datant des années 1980. L'idée de l'EBM c'est, en gros, d'informer la prise de décision médicale en s'appuyant sur une analyse extensive des "données" de la recherche (articles scientifiques, protocoles et données elles-mêmes), croisée avec l'expertise et l'expérience du clinicien et en s'efforçant de tenir compte des droits et des préférences du patient concernant son traitement. L'EBM s'appuie sur différents "niveaux de preuve" (essais cliniques, randomisés ou non, cas témoins, études comparatives, études épidémiologiques, etc.) mais ce qui m'intéresse particulièrement et fait le lien avec les EMD et tout ce dont je vous parle ici, c'est le rapport entre les données "probantes" de l'EBM et les données "émergentes" de l'EMD (oui je sais ça fait beaucoup de sigles). Voici ce que nous dit Wikipedia sur ces données probantes

"Une médecine fondée sur les "données probantes" fait la promotion d'une catégorie de données au détriment des "données contextuelles". Les données contextuelles sont propres au cas : elles englobent les aspects socioculturels, émotifs, psychosociaux, institutionnels, socio-économiques et ne sont pas propres au patient seulement. Le médecin, les institutions de soins portent des valeurs qui influencent la décision médicale au même titre que les données scientifiques. Les essais cliniques randomisés (ECR), l'outil méthodologique principal de l'EBM, sont insensibles aux données contextuelles se rapportant à l'individualité des patients."

Or, du côté de l'EBM comme de l'EMD, et dans tous les secteurs touchés par cette approche "evidence-based" (l'éducation ou le paramédical notamment mais aussi toutes les formes de gestion/management se gargarisant d'indicateurs supposément décisionnels), dans tous les secteurs touchés par cette approche "evidence-based" se posent des questions sur la dimension "extensive" d'une approche d'hyper-rationalité statistique sur des sujets, des enjeux et des individus dont les comportements, les pathologies, les troubles et le devenir ne sont pas réductibles à cette rationalité statistique. 

Bien souvent à force de prétendre rationaliser la manière dont on "informe" le processus de décision, on finit par prendre systématiquement des décisions à la con ("bullshit-based decision"), décisions coupées de toute forme d'intelligence subjective des situations.

Ceux qui parlent de religion sur Facebook n'ont pas de fortes chances d'avoir du diabète. C'est là toute la différence entre la prévoyance et la prédiction. Entre le fait de prévoir et celui de prédire. 

L'ensemble des acteurs et des dispositifs décrits dans cet article travaillent dans une logique exclusive de prédiction. Pré-dire c'est faire advenir ce que l'on dit. C'est le poser comme immanent. Comme déjà déterminé parce que déjà dit. C'est une agentivité qui épuise le rationnel de chacune de nos décisions individuelles et collectives. Alors que prévoir laisse le futur à sa place, c'est à dire dans un indiscernable plus ou moins grand qui ne préjuge pas du présent et de la rationalité des décisions qui y sont prises.

Nous avons eu la chance de voir nos aînés construire des systèmes qui n'étaient pas de prédiction mais de prévoyance collective. Des systèmes mutualistes. La prévoyance est par nature mutualiste. La prédiction ne peut être, par nature comme par fonction, que capitaliste. Pour reprendre une formule de Bourdieu, la prévoyance est un champ de "sociation" là où la prédiction est un champ de pure "production".   

On mutualise pour prévoir, on capitalise pour prédire. Bien loin de la recherche du "bonheur collectif", cet horizon de "sociation" qui était aussi sa condition première. Comme l'expliquait un certain Pierre Bourdieu, dans le journal l'Humanité, en 1999.  

"Dans ses écrits politiques, Marcel Mauss raconte ses rencontres, de Londres à Francfort, et il explique comment a été inventé la solidarité en cas d'"accident du travail", la notion d'"assurance maladie", les mutuelles … Les Américains inventent peut-être des molécules ; nous, nous avons inventé des formes sociales et des champs de "sociation", ce qui suppose une lutte contre les rapports sociaux établis dans les institutions et dans les têtes … Ce qui suppose aussi des dizaines et des dizaines d'inventions, inspirées toutes par une même vision du monde, orientée par la recherche du bonheur collectif.

Aujourd'hui, dire cela peut paraître naïf, ou ringard. Mais il faut bien voir que, derrière cette philosophie néo-libérale, il y a des forces sociales : économiques, quand elles passent par les grands organismes du commerce international ; juridico-politiques, quand elles passent par Bruxelles. Or, s'il y a quelque chose qui nous différencie du système américain dans le domaine de la santé, c'est bien cette vision " solidariste " qui est au principe d'une institution telle que la mutuelle. Or, les mutuelles sont-elles encore des mutuelles, et pourquoi ne comprend-on même plus la philosophie des mutuelles, si ce n'est parce qu'elle a été rongée par la philosophie néo-libérale, qui dit : " Il faut faire des profits, il faut réinvestir "… Le temps n'est-il pas venu, pourtant, de reprendre le meilleur de ce qui a été inventé autrefois, pour le faire revivre en l'inventant à nouveau ?"

2 commentaires pour “Le diabète de Dieu, les données médicales émergentes et le Health Data Hold-Up.

  1. Dans leur excellent livre, Ending medical reversal (Pour en finir avec les voltefaces médicales), les médecins Vinayak Prasad et Adam Cifu soulignaient les limites de bien des traitements et conseils médicaux. Quand on mesure leur efficacité, on se rend compte qu’elles n’améliorent ni la santé ni la survie des patients. Trop souvent, les voltefaces médicales sont la conséquence d’une adoption sans base de preuve robuste. Bien souvent, « des thérapies passent de mode non parce qu’elles ont été remplacées par quelque chose de mieux, mais parce qu’on a constaté qu’elles ne fonctionnaient pas (ou du moins pas mieux que la thérapie standard précédente ou que la pratique moins invasive précédente) ». Pourtant, soulignent les médecins, toutes les pratiques répandues et inefficaces ne sont pas toujours abandonnées même quand on démontre leur inefficacité… Le développement de données de santé basées sur la corrélation que tu évoques ici, risque surtout de générer d’innombrables nouveaux problèmes d’efficacité !

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Articles similaires

Commencez à saisir votre recherche ci-dessus et pressez Entrée pour rechercher. ESC pour annuler.

Retour en haut