Pendant longtemps, et pour encore probablement un très court laps de temps, le principal problème des moteurs de recherche et de leurs algorithmes fut la résolution du "problème du jaguar".
Gare au jaguar.
Lorsqu'un internaute tape "jaguar" dans la zone de recherche, comment savoir s'il cherche des informations sur l'animal ou sur la marque de voiture ? Ce problème est aujourd'hui en passe d'être totalement résolu par – pour faire vite et simple vu que j'ai déjà écrit des tonnes de billets sur le sujet par exemple là et là – l'analyse de notre historique de recherche (personnalisation) et par l'auto-complétion (suggestions en cours de frappe avec ajout d'éléments contextuels permettant de préciser l'univers de discours concerné).
Dans le bus.
Donc demain, nous serons tous équipés de Google Glasses, dans 3 ans nous roulerons dans des voitures sans chauffeur. L'algorithmie sera au centre de nos vies, en régulera la plus inessentielle des interactions. Et donc les algorithmes auront à résoudre un nouveau problème, celui du bus scolaire.
"Si votre voiture autonome doit avoir un accident vaut-il mieux qu’elle renverse le bus scolaire qui arrive en face ou la voiture de la vieille dame qui est à côté ?"
Et oui, tout de suite ça rigole moins. Je continue de recopier le compte-rendu d'Internet Actu à propos de l'article de Tom Chatfield.
"la possibilité qu’une action éthiquement supérieure puisse être calculable par un algorithme (pour autant que ce supposé puisse être démontré) induit que la machine puisse avoir une éthique qui nous est supérieure. Pour l’instant, ces conjonctures sont encore de la science-fiction… Mais pas tant que cela… Sur quels règles les médecins urgentistes font-ils le tri entre des patients leur arrivant en masse ? Pour Tom Chatfield, si notre voiture autonome est prête à sacrifier notre vie pour en sauver plusieurs, ce principe et ses paramètres doivent nous être connus."
Ce qui nous renvoie donc au vieux débat sur la transparence nécessaire ou obligatoire de boîtes noires algorithmiques qui contrôlaient jusqu'ici notre accès à l'information, avant de contrôler l'information elle-même, et demain donc, la moindre de nos interactions dans le monde physique.
De fait, le coeur de l'article de Chatfield est le vieux problème bien connu des logisticiens et psychologues : le "dilemme du Tramway ou de l'homme obèse". Du point de vue de la logique (y compris donc algorithmique), on choisira toujours de sauver 5 vie même s'il faut pour cela en sacrifier 1 ou 2, même s'il faut pour cela en sacrifier intentionnellement une. C'est le point de vue "conséquentionnaliste". Un point de vue que la SF a largement repris, notamment au travers des 3 lois de la robotique d'Asimov. Du point de vue de l'éthique en revanche :
"ethical reasoning called deontology, meaning conduct should be judged by the nature of an action rather than by its consequences."
Et Chatfield de rappeler :
"The friction between deontology and consequentialism is at the heart of every version of the trolley problem."
Car il y a bien "friction", au sens littéral, cette "friction" que "les" sociétés algorithmiques cherchent à tout prix à gommer au profit d'une approche précisément "sans friction". Je vous renvoie à l'analyse que j'avais proposée dans l'article "Le mot friction dis-tu" dont je vous rappelle juste les conclusions :
"(Il y a donc un) débat pour une défense de la sociabilité "avec friction", la défense de la friction. Un débat qui situe la friction comme la (dernière et ?) nécessaire limite à l'automatisation complète de nos interactions sociales. La friction comme frottement, comme ruguosité sociale nous poussant à interagir ou à refuser l'interaction comme la douleur nous avertit du danger d'une interaction en cours.
L'approche "frictionless" developpée dans la stratégie de Facebook, l'automatisation complète, transparente de l'ensemble de nos comportements sociaux connectés est également une affordance inversée. Non plus la "capacité d'un objet à suggérer sa propre utilisation" mais la capacité d'un environnement numérique à utiliser – à des fins diverses mais essentiellement marchandes – nos propres interactions, nos propres intentions d'interactions. Ou, si l'on préfère se positionner comme techno-enthousiaste, une affordance sublimée, paroxystique : la capacité d'une environnement numérique à générer et à contraindre le déclenchement de nos propres intentions d'interaction."
Le problème du "bus scolaire" ou du "Tramway", s'il doit être réglé de manière algorithmique fera toujours le choix d'une approche "sans friction", "conséquentionnaliste". L'enjeu est donc triple :
- Savoir si nous serons en capacité de connaître ces régles.
- Savoir si elles – les règles d'inférence algorithmiques – seront capables d'intégrer des éléments "de contexte" susceptible d'orienter la décision, et surtout … quelles seront ces règles "éthiques" ou sur quelle base elles seront bâties.
- Savoir s'il existera un bouton qui nous permettra à tout moment de choisir … de désactiver ces règles (Chatfield écrit : "If I can build a car that will automatically avoid killing a bus full of children, albeit at great risk to its driver’s life, should any driver be given the option of disabling this setting ?")
Des autoroutes de l'information aux voies rapides algorithmiques.
En rédigeant ce billet je tombe sur cet article qui, alors même que l'internet se cherche une nouvelle gouvernance, indique que le principe de la neutralité d'internet vient probablement de prendre un coup fatal avec la décision de la FCC d'autoriser les fournisseurs d'accès à facturer aux entreprises des "voies rapides de connexion".
"The proposed rules, drafted by Tom Wheeler, the chairman of the Federal Communications Commission, and his staff, would allow Internet service providers to charge companies different rates for faster connection speeds"
(Source de l'image : http://www.motherjones.com/kevin-drum/2014/04/net-neutrality-finally-dies-ripe-old-age-of-45)
Et je me dis que cela ne va faire qu'accroître le problème du bus scolaire. En forçant à peine le trait pour les besoins de la démonstration, imaginez la résolution dudit problème selon que vous conduirez vous-même une Ferrari ou une Logan et selon que les entreprises Logan et Ferrari disposeront elles-mêmes d'algorithmes bénéficiant de ces "voies rapides". Si, comme il est probable, le processus de traitement de l'information est plus rapide chez Ferrari que chez Logan (parce que Ferrari aura mis les fonds nécessaires pour disposer desdites "voies rapides"), alors l'algorithme Ferrari sera plus rapide que l'algorithme Logan, et nous voilà devant un nouveau type d'inégalité ne concernant plus "simplement" la possibilité de visionner des vidéos sur YouTube mais de prendre une décision capable de sauver des vies.
On m'objectera qu'un tel algorithme décisionnel n'aura pas nécessairement besoin, pour prendre sa décision, d'être "connecté" à internet. Je contre-objecterai que peut-être que oui, mais surtout peut-être que non. Il est fort probable qu'une telle décision doive être nécessairement liée à une analyse en temps réel du traffic routier, à un croisement de cette analyse avec différents positionnements GPS des véhicules en circulation dans cette zone, et avec, pourquoi pas, la consultation du site de la société de transport gérant le bus scolaire pour voir si celui-ci est "rempli" ou pas.
Quand le jaguar monte dans le bus.
La clé contextuelle que j'évoquais plus haut est celle nécessaire pour pouvoir résoudre efficacement le problème du jaguar. Et l'ensemble des progrès de l'ingénierie algorithmique ont convergé pour rendre ce contexte "soluble" dans l'historicité de nos recherches, dans l'analyse de nos différentes interactions au sein des écosystèmes des service hôtes, etc.
Cette clé contextuelle est également et évidemment celle qui va s'imposer pour la résolution du problème du bus scolaire. Mais nul ne sait encore sur quels éléments contextuels elle s'appuiera ni si ceux-ci seront réellement "calculables" et de quelle manière, en fonction de quelles priorités, de quelles historicités, de quelle "éthique".
De la gouvernance algorithmique et de ses missions régaliennes.
Voilà déjà longtemps que j'affirme que le problème politique de la gouvernance algorithmique va s'étendre à toute une série de missions régaliennes : éducation, santé, formation, emploi / chômage, et donc transports. Rappel de mon hypothèse notamment développée dans ce billet "Outerweb et Infranet" :
Les moteurs de recherche et les réseaux sociaux investiront un certain nombre de tâches "régaliennes". La gestion du chômage par le biais d'une algorithmie d'affectation qui analysera en temps réel l'offre et la demande, et croisera l'ensemble avec nos parcours, nos situations et nos profils "professionnels" déjà en ligne, déjà indexés, déjà pré-affectés. La gestion de l'assurance maladie également. Par le biais d'une algorithmie de nature assurantielle : prescriptions médicales, dossier médical informatisé, et génomique personnelle. La gestion de l'enseignement enfin. Par le biais d'une algorithmie didacticielle embrassant l'ensemble des ressources éducatives disponibles en ligne et les faisant correspondre à notre niveau "scolaire", à notre projet professionnel, et nous délivrant en retour les badges et certificats attestant de cet apprentissage programmé.
Le problème, ce serait de considérer qu'il n'y a pas de problème. De fait, et si je m'en tiens à quelques secteurs régaliens, nombre d'algorithmes permettent déjà de réguler les transports publics (gérant par exemple la coordination des feux rouges, ou bien encore du côté de la SNCF), idem dans le domaine de la santé (régulation et priorisation des urgences dans certains hôpitaux) et l'on pourrait encore en trouver quelques autres. Le problème ne vient pas non plus du fait que ce soit des sociétés "privées" qui conçoivent et supervisent de tels algorithmes (c'est leur métier).
Le – gros – problème vient :
- de la concurrence faussée qu'induirait la gestion de telles missions au regard des logiques et des modèles économiques qui fondent lesdites sociétés ;
- de l'opacité totale desdits algorithmes, justifiée par le secret industriel, mais rendues caduques par l'impérieuse nécessité d'une gouvernance publique à partir du moment où ils concernant les secteurs susmentionnés avec la possibilité non-négligeable de s'y trouver en situation d'absolu monopole.
Après s'être interrogé pendant des années sur l'externalisation de nos mémoires documentaires, les progrès de l'ingénierie algorithmique, les possibilités d'automatisation qu'elle ouvre dans le champ social, sa pregnance dans des domaines allant de la santé à l'éducation en passant par les transports, nous obligent à construire dès maintenant un corpus d'analyse et de réflexion qui pourra seul nous laisser en situation de comprendre les enjeux de cette deuxième vague d'externalisation : l'externalisation de nos stratégies décisionnelles, émotionnelles, affectives.
En d'autres termes, bâtir un "éthique de l'automatisation" pour éviter, dès demain, de n'avoir comme autre choix que celui de se reposer sur la croyance en une "éthique algorithmique" :
"(in the) the ethics of automation (…), human beings are like cameras, he suggests, in that they possess two moral modes: automatic and manual. Our emotions are ‘automatic processes … devices for achieving behavioural efficiency’, allowing us to respond appropriately to everyday encounters without having to think everything through from first principles. Our reasoning, meanwhile, is the equivalent of a ‘manual’ mode: ‘the ability to deliberately work through complex, novel problems’." (Source)
Robuste, Prévisible et Transparent. Ou pas.
Chatfield, dans la dernière partie de son article cite les travaux de Bostrom et Yudowsky (théoriciens de l'intelligence artificielle), notamment cet article de 2011, "The Ethics of Artificial Intelligence", en rappelant sa conclusion :
"They argued that increasingly complex decision-making algorithms are both inevitable and desirable – so long as they remain transparent to inspection, predictable to those they govern, and robust against manipulation."
Je répète et souligne :
"Les algorithmes de plus en plus complexes de prise de décision sont à la fois souhaitables et inévitables, tant qu'ils restent transparents à l'inspection, prévisibles pour ceux qu'ils gouvernent, et robustes contre toute manipulation."
Le problème est que la courte histoire des algorithmies d'accès et de mise en ordre de l'information, à commencer par celle du Pagerank, nous apprend qu'ils sont exactement … l'inverse, c'est à dire :
- parfaitement opaques à l'inspection (tout le monde connaît la formule de base du Pagerank mais personne n'a de vision globale des quelques 400 variantes qui constituent l'aglorithme réellement opératoire),
- relativement imprévisibles pour ceux qu'ils gouvernent (le meilleur exemple est la fonction "google suggest" dont nul n'est capable de dire quel est la requête qu'elle va choisir de nous "suggérer")
- et relativement exposés à des manipulations (on se souvient du Google Bombing qui même s'il a été "solutionné" par des interventions manuelles sur l'algorithmie, renverse la charge de la preuve manipulatoire du côté de ceux qui disposent de l'accès à la boîte noire algorithmique, c'est à dire les sociétés les mettant en oeuvre)
L'éthique n'est pas une prothèse.
J'ajoute enfin que la pregnance et la dimension de plus en plus "prothétique" des interfaces du World Wide Wear (voir encore tout récemment ce brevet déposé par Google) va largement contribuer à densifier l'opacité algorithmique ambiante et à rendre intuitivement "nécessaire" ou supposément "obligatoire" le recours aux algorithmes de prise de décision : un homme conduisant une voiture prend en permanence des décisions. Le même homme, équipé de lentilles de contact elles-mêmes pourvues de micro-caméras, le même homme équipé de lunettes Google, le même homme dans une voiture sans chauffeur pilotée "algorithmiquement" sera confronté à trois boucles décisionnelles consituant autant de possibilités d'inférences ou d'injonctions contradictoires possibles face au problème du bus scolaire : il y a les décisions qu'il aurait prises, les décisions "augmentées", "contextuelles" qui lui seront proposées par ses lunettes ou ses lentilles, et les décisions que prendra in fine son véhicule automatique avec la possibilité offerte, ou pas, de suspendre ces dernières.
Le siècle de la prédictibilité et celui à venir de la réplicabilité doivent, de toute urgence et davantage que les précédents, remettre le questionnement éthique au coeur de leurs préoccupations politiques, économiques et sociétales. Parce que nos enfants monteront tous un jour dans un bus et que plus aucun d'entre eux ne connaîtra l'existence du panneau "Gare au jaguar".
Algorithmique sans éthique n’est que ruine de l’âme [de la société ?].
_____
J’avais déjà senti un énorme potentiel de récit (roman/film) SF quand j’ai lu l’article de Tom Chatfield… enfin d' »anticipation », comme disent certains pour décrire de la SF « proche », « quasi présente ». Si je savais écrire, je me mettrais au travail, il y a vraiment à boire et à manger dans ces problématiques.