Fake News, Post-Truth, Filter Bubble, toute puissance des algorithmes, voilà, parmi d'autres, quelques-unes des expressions qui semblent aujourd'hui caractériser le plus notre rapport au numérique.
Après le lancement de l'initiative assez étonnamment controversée du Décodex du site Le Monde, sonne aujourd'hui l'heure de la mobilisation face aux Fake News en France, avec comme contexte l'élection présidentielle à venir, et en mobilisant les grandes plateformes (Facebook et Google) avec l'aide de journalistes et de sites de presse, comme l'expliquent Le Monde et Les Echos :
- le 27 février et jusqu'à la fin de l'élection présidentielle Google lancera "Crosscheck", une plateforme sur laquelle les internautes pourront "signaler" des informations douteuses ou poser des questions sur un sujet, et différentes rédactions (l'AFP, Les Echos, Le Monde, France Télévisions, La Provence, …) ainsi que des étudiants en journalisme mais également "plusieurs sociétés de tehnologies" (sic) pourront alors faire du debunking ou du fact-checking ciblé.
- Facebook de son côté, après avoir annoncé il y a quelques jours des modifications sur son algorithme visant à atténuer certains effets de personnalisation, tout en état partenaire du projet "Crossckeck", lance ce lundi son propre outil baptisé "CrowdTangle" en collaboration avec "8 rédactions partenaires" (Le Monde, AFP, BFM-TV (sic), Franceinfo, France Médias Monde, L’Express, Libération et 20 Minutes). Là encore c'est aux internautes de "signaler" les informations douteuses, qui sont analysées par lesdites rédactions partenaires et si au moins 2 d'entre elles la jugent effectivement fausse ou douteuse, l'info se verra ajouté un petit pictogramme et il sera dans certains cas possibles d'accéder à un article correctif. Une information ainsi repérée et identifée par un pictogramme ne pourra, en outre, plus bénéficier de publicité (et donc devrait voir sa portée 'son "reach") diminuer.
Si j'en ai le temps je reviendrai dans un prochain billet sur les raisons pour lesquelles je suis plus que dubitatif sur ces expérimentations mais je voudrais pour aujourd'hui prendre le problème sous un autre angle et tenter de comprendre la succession de biais cognitifs, culturels et sociologiques qui participent à la construction et au partage de ces différentes "fausses informations" tout autant qu'à nos éventuelles "bulles de filtre".
Comme "média", "le" numérique tel qu'en tous cas il prend forme au sein des gigantesques écosystèmes de services ou plateformes que sont Google, Facebook et quelques autres, ce numérique là dispose d'un certain nombre d'invariants qui sont autant de fonctions et de caractérisations précises de ses modes d'agir et qui façonnent en retour la manière dont nous interagissons avec lui.
4 invariants fondamentaux.
Parmi ces invariants on pourra par exemple citer la caractérisation précise que danah boyd propose des réseaux sociaux autour de 4 phénomènes que sont les audiences invisibles (on ne sait pas si les gens à qui l'on s'adresse sont là au moment où l'on parle), la reproductibilité, la searchability (capacité à être recherché / retrouvé) et la persistance (dans le temps). Les informations (vraies ou fausses) et les régimes de vérité caractéristiques de chaque plateforme sont pour une large part très dépendants de ces 4 paramètres fondamentaux. Juste un exemple : si certaines Fake News se propagent rapidement c'est parce qu'une information que l'on sait douteuse et que l'on veut partager, "pour rire", avec uniquement des amis que l'on sait en capacité d'en lire le second degré, pourra être vue et reproduite par d'autres amis qui, eux, ne détecteront pas ledit second degré.
Et puis il y a tout … le reste.
Et le reste c'est l'essentiel. L'essentiel ce sont les biais cognitifs, culturels et sociologiques. Nos biais cognitifs (culturels et sociologiques) d'abord, ceux qui n'ont absolument rien à voir avec les plateformes ou avec le numérique mais que les plateformes ou le numérique permettent souvent "d'augmenter" avec un simple effet de corrélation ; et puis les biais cognitifs (culturels et sociologiques) directement reliés au numérique ou aux plateformes avec, cette fois, un lien de causalité directe.
Ce billet n'a pas d'autre objectif que de me permettre d'y voir un peu plus clair dans la diversité et les enjeux de ces différents biais cognitifs, souvent convoqués un peu "en vrac" dès que l'on évoque, justement, les problèmes liés aux plateformes, aux Fake News, à la post-vérité et autres bulles de filtre. C'est parti.
1. Spirale du silence et tyrannie des agissants.
La spirale du silence est une théorie sociologique qui dit la chose suivante :
"[L'individu] peut se trouver d'accord avec le point de vue dominant. Cela renforce sa confiance en soi, et lui permet de s'exprimer sans réticence et sans risquer d'être isolé face à ceux qui soutiennent des points de vue différents. Il peut, au contraire, s'apercevoir que ses convictions perdent du terrain ; plus il en sera ainsi, moins il sera sûr de lui, moins il sera enclin à exprimer ses opinions."
Dans le premier cas (accord avec le point de vue dominant), et si l'on fait partie de ceux qui ne partagent justement pas le point de vue dominant, on dira trivialement qu'ils "hurlent avec les loups".
Dans le second cas de figure (risque d'être isolé), la pression sociale nous conduit donc à nous enfermer dans une spirale du silence.
La tyrannie des agissants est un phénomène décrit par Dominique Cardon, qui explique la chose suivante :
"On est tous égaux a priori, mais la différence se creuse ensuite dans la mesure de nos actes, entre ceux qui agissent et ceux qui n’agissent pas. Internet donne une prime incroyable à ceux qui font. Et du coup, il peut y avoir une tyrannie des agissants."
Or il se trouve que fréquemment, avec les effets d'écho et de viralité spécifiques aux environnements numériques, la tyrannie des agissants amplifie et accélère les possibles spirales de silence sur certains sujets de société, permettant alors parfois de faire complètement basculer l'opinion.
Un exemple – assez – simple est celui de l'élection de Donald Trump et de ses thèmes de campagne (racistes, sexistes, misogynes, etc.). Sur ces questions là, l'effet "tyrannie des agissants" a commencé par jouer : il n'y a pas beaucoup plus de gens racistes, sexistes, misogynes que de gens qui ne sont ni racistes, ni sexistes ni misogynes, c'est même a priori plutôt l'inverse. Sauf que ce sont les premiers qui s'expriment le plus (tyrannie des agissants). Et que du coup ils apparaissent comme les plus nombreux, forçant alors ceux qui sont supérieurs en nombre mais s'exprimant beaucoup moins à entrer dans leur spirale du silence. On se tait devant la parole raciste, sexiste ou misogyne parce que l'on a l'impression que c'est cette parole qui est le point de vue dominant. Et si l'on a cette impression c'est en partie lié à l'environnement numérique qui nous la fait éprouver. Car "dans" l'écosystème de Facebook ou de Google (souvenez-vous de ce qu'il se passe lorsque l'on demande à Google si l'holocauste a vraiment existé), cette parole déjà portée par la tyrannie des agissants, bénéficie en outre d'une prime à la visibilité : parce qu'elle est la plus clivante, la plus commentée et partagée et donc la plus "engageante" (au sens de l'engagement mis en avant par Facebook).
Dans un environnement entièrement déconnecté de tout paramètre numérique (un café, une réunion de famille, une réunion publique) ces phénomènes sont aussi observables. Ainsi certaines personnes prennent plus facilement la parole que d'autres et sont immédiatement considérés comme autant de leaders naturels puisqu'ils "agissent" le plus. De la même manière, je vous laisse aisément imaginer la spirale de silence dans laquelle se trouverait pris un électeur du Parti Communiste à un meeting du Front National. Mais dans le "réel", cette tyrannie des agissants ou ces effets de spirale de silence sont immédiatement rationnalisables et quantifiables par l'expérience, de manière empirique directe. Je "vois" la totalité des gens présents à ce meeting, et dans cette totalité je mesure "à vue d'oeil" que je ne partage pas les mêmes idées ou les mêmes codes vestimentaires que le plupart d'entre eux.
A l'échelle d'environnements numériques ("sur" Google, Facebook, Twitter, ou d'autres), à ces deux effets (spirale de silence et tyrannie des agissants) s'en ajoute au moins un troisième : les audiences invisibles décrites par danah boyd. Il m'est donc doublement impossible de "voir" quelle est la réalité sociologique, idéologique de la communauté dans laquelle je m'exprime puisque précisément je ne vois pas les gens auxquels je parle ou qui parlent autour de moi. Et si je dis "doublement" impossible c'est parce qu'un autre paramètre intervient qui est celle fois celui du déterminisme algorithmique (qu'on l'appelle bulle de filtre ou autrement, peu importe, si l'existence d'une "bulle de filtre" est contestable et contestés dans son ampleur et ses modalités, en revanche nul ne conteste qu'il existe un déterminisme algorithmique) déterminisme algorithmique qui, pour des raisons diverses et changeantes va favoriser et surexposer certains points de vue et en minorer d'autres.
Donc une sorte de cake de biais cognitifs et comportementaux composé de 4 étages : tout en bas la tyrannie des agissants, juste au dessus, comme causalité effective, la spirale du silence, au dessus d'elle, les audiences invisibles et tout en haut la bulle de filtre ou en tout cas le filtrage algorithmique.
Cf ANNEXE 1 (ben oui je mets des annexes dans un billet de blog si je veux)
2. Pensée tribale.
La "tyrannie des agissants" s'appuie elle-même sur une dichotomie plus profonde entre "endogroupe" et "exogroupe" que l'on nomme également "la pensée tribale". Nous appartenons à une tribu (tribu sociologique, tribu d'opinions) et comme l'explique très bien Samuel Veissière sur InternetActu :
"La plupart de nos intuitions sont acquises socialement et associées aux valeurs de notre tribu, ou endogroupe : nous développons alors une méfiance intuitive qui tourne facilement à la haine pour tous les autres dans notre exogroupe."
L'approche anthropologique, poursuit-il, fait qu'à certaines étapes de notre vie, nous changeons d'endogroupe, sans nécessairement en avoir immédiatement conscience et que chaque communauté dispose toujours de ses propres endo et exo-groupes qui s'affrontent plus ou moins violemment sur certains sujets.
L'autre point clé est celui qui veut que nous ayons tendance à "ignorer le contexte au sein duquel nous formons nos opinions." A leur échelle, les plateformes de médias sociaux viennent superposer à ces compositions sociales endo ou exo-gamiques, d'autres (re)compositions sociales communautaires, supposément affinitaires, mais en réalité intangibles car invisibles dans les logiques de constitution qui les façonnent, et biaisées dans la manière dont elles nous "contraignent" à élargir systématiquement les groupes et les réseaux d'amitiés qui constitueront nos sociabilités (de manière certes "douce" mais contrainte tout de même).
Nous avons donc ici un autre "cake" composé cette fois de deux étages : celui de la "tribu" réelle dans laquelle nous forgeons nos opinions et des endo et exogroupes qui constituent les lignes d'affrontement et de conflit au sein de ladite tribu, et les communautés tribales artificiellement augmentées et construites qui participent de notre rapport à l'information et aux autres au sein des grande plateformes de réseaux sociaux. Voilà ce qui constitue la variable "sociologique" ou "anthropologique" de ce que l'on appelle commodément – et assez inexactement – la bulle de filtre, l'autre partie de ladite bulle étant constituée par les différents déterminismes algorithmiques.
3. Heuristiques de jugement.
Reproductibilité, audiences invisibles, "searchability", persistance, spirale du silence, tyrannie des agissants, pensée tribale, endogroupes et exgroupes sont autant de facteurs et de biais qui, même s'il renvoient au rapport à l'information d'un individu, se travaillent d'abord à l'échelle du groupe et/ou des dispositifs techniques (plateformes, algorithmes).
A l'échelle de l'individu c'est vers les différentes "heuristiques de jugement" qu'il faut se tourner. Une heuristique de jugement c'est "un raccourci cognitif utilisé par les individus afin de simplifier leurs opérations mentales dans le but de répondre aux exigences de l’environnement", des opérations mentales "intuitives, rapides, automatiques". Cela nous permet de gagner du temps mais cela est surtout la cause de nombreux biais et erreurs dans nos prises de décision. Et des raccourcis cognitifs il y en a … plein.
Cos' I'm Happyyyyyyy … Avant de dresser la liste de ceux (les biais) et celles (les heuristiques) qui participent prioritairement aux débats actuels sur #FakeNews, #FilterBubble et autres #PostTruth (pour tous les autres, allez voir l'article remarquable de Wikipedia), un point clé est que l'humeur, notre humeur, joue un rôle fondamental dans la mise en place des ces heuristiques.
Il a par exemple été démontré que la joie, davantage que la tristesse, favorisait la mise en branle de ces heuristiques. Or, à l'échelle des plateformes sociales, on sait deux choses : d'une part, à l'échelle de la psychologie individuelle, que certains sentiments se propagent plus facilement que d'autres et qu'il s'agit de la colère, de l'indignation, du sentiment d'injustice. Et d'autre part, à l'échelle du modèle économique des plateformes, que c'est précisément la joie (ou l'humeur joyeuse) qui va nous installer dans un contexte cognitif facilitant, par exemple, les achats pulsionnels, ou nous rendant en tout cas plus réceptifs aux différentes sollicitations publicitaires. D'où l'intérêt et l'ingéniosité toute particulière que Facebook déploie pour tester et manipuler notre humeur. D'où cette alternance lancinante sur notre mur – lancinante mais variable en fonction de notre propre humeur – qui va superposer les nouvelles les plus désespérantes sur l'état du monde à des photos de chatons trop mignons.
a) L'erreur fondamentale d'attribution.
Comme le rappelle encore Samuel Veissière :
"nous avons une tendance intuitive vers l’ignorance du contexte, puis nous sommes automatiquement biaisés vers la quête d’une causalité humaine, singulière, personnifiée. Ce biais vers la personne s’extrapole facilement à un groupe. C’est la faute de Trump ; ou bien des ploucs, des immigrés ; ou bien encore de « l’Israël » ou de « l’Islam ». Pour éviter ces horreurs, il faut comprendre que l’esprit humain est très inefficace dans sa perception des indices contextuels et situationnels tels que les forces historiques, sociales, et économiques. Il est aussi très inefficace à percevoir ses propres raccourcis mentaux et sa psychologie tribale."
Les exemples cités sont suffisamment flagrants du rôle de facilitation que jouent les réseaux sociaux pour que je n'en rajoute pas une couche.
b) Le biais de confirmation et la dissonance cognitive.
Probablement le plus "connu" il est à la fois la cause et l'origine de la réalité de la "bulle de filtre". Avec ou sans algorithmes pour l'y inciter, chacun va avoir tendance à privilégier les informations qui confirment ses propres opinions ou sa vision du monde, et à négliger ou ignorer celles qui les contredisent. Là où la partie "algorithmique" intervient, c'est précisément dans sa capacité statistique à mesurer nos opinions passées ou actuelles pour inférer et prévoir de nous exposer à tel ou tel type de contenu permettant de les conforter (et nous laisser barboter dans notre zone de confort cognitive), augmentant d'autant notre résistance au changement (cf infra), et permettant d'atténuer les effets de dissonance cognitive.
Or si le biais de confirmation est si présent dans nos comportements sur Facebook c'est aussi parce nulle part davantage qu'au sein de cette plateforme nous ne sommes en permanence soumis à des situations de dissonance cognitive, et que notre équilibre mental impose en quelque sorte le recours à ce biais.
c) L'écho de croyance.
Il s'agit cette fois de notre capacité à continuer à croire de fausses informations y compris lorsque nous avons pris connaissance de leur fausseté. Cela s'appelle l'écho de croyance et explique pourquoi il est si difficile (et parfois si vain) de "fact-checker" des fausses informations en espérant convaincre ceux qui y avaient initialement cru. De manière anecdotique, cet effet de croyance est un ressort narratif très fréquemment utilisé dans les films américains de "procès", où l'on voit le procureur ou l'avocat balancer un truc dégueulasse sur l'accusé, truc dont il sait qu'il est faux ou qu'il soulèvera une objection retenue par le juge, mais qui n'a d'autre finalité que d'influencer le choix du jury populaire en y installant cet écho de croyance. L'écho de croyance s'appuie lui-même sur le biais de croyance qui fait que nous aurons d'autant plus tendance à "ignorer" les faiblesses ou les erreurs logiques d'un raisonnement que la conclusion correspond à nos propres croyances.
On parle aussi de l'effet retour de flamme (les individus confrontés à des preuves en contradiction avec leur croyance ont tendance à les rejeter et à se refermer davantage sur leur croyance initiale) ou de la persistance des croyances discréditées comme corollaires du biais de confirmation.
d) Le biais d'auto-complaisance.
Il s'agit cette fois de la tendance que nous avons à facilement nous attribuer le mérite de nos réussites, aussi facilement que nous allons attribuer nos échecs à des facteurs extérieurs défavorables. C'est le syndrome classique de l'entraîneur de foot qui vient de perdre un match et explique que l'arbitrage était douteux ou que le terrain était lourd, mais, à l'échelle des réseaux sociaux et des sujets donc nous traitons dans ce billet, le biais d'auto-complaisance joue souvent à un niveau "méta" dès qu'il est question de débat autour des Fake News, de la bulle de filtre ou du déterminisme algorithmique.
En gros, les "anti" bulle de filtre expliquent que se réfugier derrière un déterminisme algorithmique revient à s'exonérer de sa propre responsabilité (la bulle de filtre = le terrain qui est lourd et l'arbitre qui est nul) alors que les pro bulle de filtre ont tendance à surévaluer notre capacité d'indépendance et de discrimination au regard des déterminismes algorithmiques (la bulle de filtre c'est d'abord nous, et facebook et ses algos ne sont rien d'autres que des conditions météo variables qui affectent tout le monde peu ou prou de la même manière, ou des arbitres qui veillent à appliquer des règles que tous les joueurs sont supposés connaître et respecter).
e) L'effet cigogne (ou illusion de corrélation).
L'effet cigogne est ce qui nous conduit à confondre causalité et corrélation. Il tire son nom d'une jolie anecdote que je vous livre :
"dans les communes qui abritent des cigognes, le taux de natalité est plus élevé que dans l’ensemble du pays. Conclusion : les cigognes apportent les bébés ! Voici une explication plus probable : les cigognes nichent de préférence dans les villages plutôt que dans les grandes agglomérations, et il se trouve que la natalité est plus forte en milieu rural que dans les villes. Voilà pourquoi l’on nomme « effet cigogne » cette tendance à confondre corrélation et causalité."
Sa traduction en termes de "Fake News" est double : d'un côté on a de fausses informations qui instrumentalisent sciemment cet effet, qui jouent délibérément sur la zone de flou entre corrélation évidente et causalité apparente, il s'agit alors "simplement" d'une technique de désinformation ou de propagande comme une autre. De l'autre, dans l'empilement et l'affichage de notre mur, la juxtaposition verticale de certaines informations occasionne souvent le fait que nous allons prendre l'une de ces infos comme la conséquence d'une autre la précédant alors qu'elles n'entretiennent entre elles qu'un lointain effet de corrélation.
f) Biais de cadrage
La biais de cadrage c'est la tendance à être influencé par la manière dont un problème est présenté. Il tourne souvent autour de présentations ou d'argumentaires reposant sur des statistiques ou des données chiffrées. Selon le chiffre ou la statistique mise en avant, la décision finale pourra être différente. Le grand classique du biais de cadrage c'est l'exposition par le gouvernement des chiffres du chômage. Chaque fois qu'un gouvernement (de droite ou de gauche) présente ces chiffres, il le fait en soulignant certains aspects ou certaines catégories de chômeurs, et immanquablement l'opposition explique que tout cela est biaisé parce que l'on n'a pas présentée telle ou telle autre catégorie. Là où les réseaux et les plateformes sociales "en rajoutent une couche" sur ce biais de cadrage, c'est dans la manière qu'elles ont de jouer et d'influer sur notre humeur, et ce faisant de changer le "cadre cognitif" qui nous permettrait d'analyser de manière correcte l'information qui nous est présentée.
g) Biais d'ancrage.
Il désigne la difficulté à se départir d'une première impression et pousse à se fier à l'information reçue en premier dans une prise de décision. C'est un effet de prime à l'antériorité, indépendamment de la véracité de l'information reçue en premier. Là encore, du côté des plateformes sociales mais aussi et particulièrement des moteurs de recherche, ce biais d'ancrage est une clé de compréhension déterminante.
Sur les moteurs de recherche, l'information qui nous sert de "première impression" c'est le premier résultat affiché par Google. D'où le problème qui se pose lorsqu'il s'agit d'un site expliquant que l'holocauste n'a pas vraiment existé.
A l'échelle des réseaux sociaux ce biais d'ancrage se décline différemment mais revêt une importance tout aussi cruciale puisque l'information qui nous sert de "première impression" est souvent celle qui bénéficie de la plus forte viralité au sein de la plateforme alors même que cette viralité est précisément construite sur un empilement de biais cognitifs facilitant sa propagation. En d'autres termes, les informations qui nous laissent souvent cette fameuse première impression dont il est ensuite si difficile de se départir sont souvent les informations les plus virales et conséquemment les moins fiables ou en tout cas celles qui bénéficient le plus de l'ensemble des biais précédemment décrits. D'où l'importance non pas de stigmatiser le rôle de ces plateformes sociales ou de ces moteurs de recherche mais d'expliquer que leur régime de vérité est celui de l'engagement ou de la popularité et en aucun cas celui d'une quelconque vérité objectivable ou d'une information factuellement vérifiable.
h/ biais de représentativité.
Il consiste à porter un jugement à partir de quelques éléments qui ne sont pas nécessairement représentatifs, sur, nous dit Wikipédia, "des informations personnalisantes plutôt que statistiques". Et là encore le lien avec réseaux sociaux et moteurs de recherche est clair et évident tant les informations remontées (dans une recherche) ou affichées (sur notre "mur") relèvent avant tout d'effets de personnalisation.
i/ biais ou heuristique de disponibilité
Selon Wikipédia il désigne "un mode de raisonnement qui se base uniquement ou principalement sur les informations immédiatement disponibles, sans chercher à en acquérir de nouvelle concernant la situation." Côté moteurs de recherche et réseaux sociaux ce biais peut être instrumentalisé de différentes manières.
D'abord parce que la "délégation de mémoire" et l'activation de cette mémoire de travail stockée dans le Cloud est un élément essentiel de la compréhension fine des écosystèmes connectés comme j'avais tenté de le montrer notamment dans ce billet : "Total Recall : Silico Transit Memoria Mundi."
Ensuite parce que sur un sujet donné, le rappel, la réactivation des informations immédiatement disponibles sera contraint par des facteurs non pas objectivables mais une fois de plus liés à des logiques de personnalisation (le plus immédiatement disponible pour moi suite à une recherche Google ne sera pas nécessairement le plus immédiatement disponible pour quelqu'un d'autre effectuant la même recherche), à des logiques de viralité et à leurs biais intrinsèques (l'information la plus immédiatement disponible est aussi, souvent, l'information bénéficiant du plus fort taux de viralité), et à des logiques d'instantanéité dans lesquelles c'est l'information la plus récente et non la plus complète ou la plus objective qui se trouve rappelée comme immédiatement disponible.
j/ résistance au changement (biais de status quo)
La résistance au changement est une attitude mentale qui fait apparaître une nouveauté comme apportant plus de risques que d'avantages possibles. A l'échelle des moteurs et des réseaux sociaux, cette résistance au changement se confond souvent avec le biais de confirmation (cf supra le point b/).
k) effet de faux concensus.
C'est, nous dit toujours Wikipédia :
"la tendance de chacun d'entre nous à surestimer le degré d'accord que les autres ont avec nous (dans leurs opinions, leurs croyances, les préférences, les valeurs et les habitudes). C'est aussi la tendance égocentrique à estimer le comportement d'autrui à partir de notre propre comportement."
Le lien parfait entre biais de confirmation et l'écho de croyance (cf supra) : si l'on surestime de degré d'accord que les autres ont avec nous c'est parce qu'il est plus facile d'être d'accord avec soi-même qu'avec les autres (biais de confirmation) et c'est aussi parce que nous préférons souvent continuer de croire à nos jugements personnels même s'ils sont erronés (écho de croyance). Là encore, les déterminismes algorithmiques et la pensée tribale maximisent souvent ces trois biais (concensus, confirmation, croyance).
l/ Illusion de savoir.
"Un individu confronté à une situation en apparence identique à une situation commune, pour lui, réagit de façon habituelle, sans éprouver le besoin de rechercher les informations complémentaires qui auraient mis en évidence une différence par rapport à la situation habituelle. Il peut ainsi faire état d'une mauvaise croyance face à la réalité." Wikipédia.
A l'intérieur des plateformes et empêtrés dans différents déterminismes algorithmiques, si l'on se fie à des croyances erronées plutôt que de chercher à recueillir de nouvelles informations, c'est précisément parce que l'on a l'impression d'être en permanence déjà sur-informés. Immergés dans ce qui ressemble à un bain informationnel et qui est avant tout une logique de rentabilité publicitaire, notre illusion de savoir se décline en illusion de comprendre et vient à son tour alimenter nombre d'erreurs fondamentales d'attribution, d'illusions de corrélation, de biais d'ancrage, de représentativité et de disponibilité.
m/ Surconfiance (ou effet Dunning-Kruger)
La "surconfiance", c'est le fait que :
"les individus les moins qualifié dans un domaine surestiment leurs compétences" alors qu'en corollaire, "les personnes les plus qualifiées auraient tendance à sous-estimer leur niveau de compétence et penseraient à tort que des tâches faciles pour elles le sont aussi pour les autres."
A l'échelle des écosystèmes numériques et les logiques participatives des réseaux sociaux, cet effet Dunning-Kruger peut-être vu comme le pendant individuel de la spirale du silence et de la tyrannie des agissants qui se jouent à l'échelon collectif. En effet lesdits "agissants", sur la question, par exemple du racisme, de la radicalisation, mais aussi de l'économie, de la politique, etc. sont souvent les moins qualifiés, ou préfèrent en tout cas s'exprimer sur le mode de l'invective plutôt que sur celui de la rationalité argumentative, et ils entraînent donc les moins agissants (parmi lesquels souvent des personnes tout à fait compétentes) à s'enfermer dans une spirale de silence contrainte cette fois non plus par la "peur" de faire dissonance mais par l'impression que chacun est assez intelligent pour voir à quel point le discours de ces agissants est caricatural, partisan et faussé.
L'autre hypothèse est que le discours des agissants ne conduise une majorité silencieuse à se comporte comme autant de moutons de Panurge. Et là encore c'est un biais qui porte un nom :
n/ le biais de conformité.
C'est à dire "la tendance à délaisser son raisonnement intime pour se rallier à l'avis de la majorité".
o/ Effet de simple exposition.
A tout seigneur, tout honneur c'est presque par celui-ci que j'aurais du commencer ce petit inventaire. L'effet de simple exposition se caractérise par :
"une augmentation de la probabilité d'avoir un sentiment positif envers quelqu'un ou quelque chose par la simple exposition répétée à cette personne ou cet objet. En d'autres termes plus nous sommes exposés à un stimulus (personne, produit de consommation, lieu) et plus il est probable que nous l'aimions."
Naturellement c'est le plus souvent dans le cadre de la publicité que l'on fait appel à lui. Mais que dire alors des simples expositions répétées qui sont si caractéristiques des logiques d'échange sur les réseaux sociaux ? A chacun de nos RT sur Twitter, de nos "Share" et plus insidieusement de nos "like" sur Facebook, avons-nous conscience d'entretenir nous-mêmes cet effet de simple exposition auprès de nos pairs ? D'être devenues d'authentiques régies publicitaires à l'insu de notre plein gré ?
p/ Effet de Halo ou de notoriété.
La définition de Wikipédia est la suivante :
"C'est une interprétation et une perception sélective d'informations allant dans le sens d'une première impression que l'on cherche à confirmer ("il ne voit que ce qu'il veut bien voir"). (…) Une caractéristique jugée positive à propos d'une personne ou d'une collectivité a tendance à rendre plus positives les autres caractéristiques de cette personne, même sans les connaître (et inversement pour une caractéristique négative). Cet effet pourrait par exemple avoir un rôle dans des phénomènes comme le racisme. Ainsi (…) des personnes étaient jugées plus intelligentes que d'autres uniquement sur la base de leur attrait physique."
Si cet effet de Halo joue un rôle à l'échelle des réseaux sociaux c'est, par exemple, dans le processus complexe et subjectif qui nous fait retenir certaines propositions d'amis plutôt que d'autres mais également parfois, certaines opinions comme "légitimes". En effet nombre de ceux qui composent ces tyrannies des agissants bénéficient d'un effet de halo du fait de leur notoriété (e-reputation), de leur habilité langagière et rhétorique, mais également d'indices quantitatifs triviaux (nombre de followers, de RT). Un bon exemple (auquel je me suis moi-même d'ailleurs laissé prendre) est le cas d'Idriss Aberkane. Nombre de modalités expressives sur les réseaux sociaux sont – parfois très habilement – construites sur des apparences qu'il est d'autant plus facile de travestir qu'il est difficile et coûteux cognitivement d'en vérifier la véracité.
q/ Effet Barnum
L'effet Barnum est ainsi décrit par Wikipédia :
"L'effet Barnum, « effet Forer », « effet puits », « effet de validation subjective » ou « effet de validation personnelle », désigne un biais subjectif induisant toute personne à accepter une vague description de la personnalité comme s'appliquant spécifiquement à elle-même."
L'exemple de plus caractéristique de cet effet ce sont les textes des horoscopes qui à force de flou nous semblent effectivement correspondre à notre "personnalité" ou à notre humeur du moment.
A l'échelle des réseaux sociaux cet effet Barnum jour un rôle important. D'abord parce que chacun d'entre nous, qu'il le veuille ou non, se construit un personnage "aimable" au travers des traces indiciaires de sa présence en ligne. Ensuite parce qu'en retour nos "amis" ont pour fonction de valider chacun de ces traits de personnalité à grands coups de commentaires et de "like". Mais l'effet Barnum s'applique également à la nature globale des informations les plus échangées et renvoie à une autre notion qui est celle de la "kakonomie", décrite dans ce billet :
"La kakonomie est régulée par une norme sociale tacite visant à brader la qualité, une acceptation mutuelle pour un résultat médiocre satisfaisant les deux parties, aussi longtemps qu'elles continuent d'affirmer publiquement que leurs échanges revêtent en fait une forte valeur ajoutée."
Si ce sont en effet la plupart du temps des échanges et des interactions "de bas niveau" qui rythment nos timelines c'est parce que ces échanges s'appuient autant sur de "vagues descriptions de nos personnalités" que sur des vagues descriptions ou commentaires de contenus informationnels. Plus la conversation est "relâchée", plus le sujet est "vague" et plus les interactions sont possibles et non-clivantes. Et plus donc, ledit contenu informationnel voit mécaniquement sa représentativité, son affichage (Reach) augmenter.
r/ Effet râteau et illusion des séries
Wikipédia en donne la définition suivante :
"L'effet râteau est un biais cognitif de jugement qui consiste à exagérer la régularité du hasard. Il revient à considérer qu'une répartition aléatoire, dans le temps ou dans l'espace, doit s'étaler selon des intervalles plus réguliers qu'ils ne le sont empiriquement. Un petit échantillon amplifie l'irrégularité de la répartition. Le biais repose sur l'absence de prise en considération de l'indépendance des événements. (…) C'est cette vision déformée du hasard qui amène à penser qu'il existe une "loi des séries".
Ladite "loi des séries" renvoyant à son tout à "l'illusion des séries" définie comme suit :
"L'illusion des séries est la tendance à percevoir à tort des coïncidences dans des données au hasard. Cela est dû à la sous-estimation systématique par l'esprit humain de la variabilité des données."
Sur les réseaux sociaux mais également dans une moindre proportion sur les moteurs de recherche, nous sommes en permanence en train "d'exagérer la régularité du hasard" et de "sous-estimer la variabilité des données". Et cela pour une raison simple qui est due à la loi de distribution des contenus auxquels nous sommes en capacité d'accéder. Je m'explique. Même si les chiffres varient on considère généralement que sur Facebook nous n'avons accès qu'à une infime partie des contenus réellement publiés par nos amis ou par les pages auxquelles nous sommes abonnés, en gros entre 6% pour les estimations les plus basses et 20% pour les plus hautes. En plus de cela, le choix des informations qui composeront ce petit pourcentage de publications visibles est lui-même contrôlé par une série de déterminismes algorithmiques dont la variabilité confinerait souvent à l'aléatoire du point de vue de l'utilisateur s'il pouvait avoir à sa disposition la globalité des publications disponibles. Or il nous est cognitivement difficile d'accepter la nature aléatoire de ce "bain" social et informationnel supposé nous permettre de prendre en temps réel le pouls du monde et de notre sphère sociale proche. Donc nous rationalisons de deux manières. D'abord en ignorant ou en feignant d'ignorer que nous ne voyons qu'une toute petite partie des publications effectivement disponibles. Ensuite en considérant que ces publications visibles obéissent à une logique qui n'est pas aléatoire mais orientée en fonction de "l'importance" desdites publications.
Et nous constatons, par exemple, que tel ou tel ami "publie" régulièrement alors que tel autre semble plus silencieux ou moins prolixe. Alors que souvent il n'en est rien. Ce sont simplement des déterminismes algorithmiques fondés pour partie sur nos propres logiques d'interaction ou de consultation qui vont donner cette impression de régularité et de fréquence aux publications des uns au regard de l'absence de régularité ou de publications des autres.
Sur un autre plan, qui n'a jamais été frappé, à l'occasion d'un "événement" médiatique ou personnel, de voir s'agglomérer sur son mur Facebook des séries de "posts" venant amplifier la caisse de résonance dudit événement ? Récemment par exemple, est-il vrai que la plupart de vos amis ont passé un temps très significatif à commenter et à poster des informations sur l'affaire Fillon au détriment des sujets dont ils préfèrent habituellement parler ? Peut-être cela peut-il se vérifier pour certains d'entre eux. Mais pour certains d'entre eux uniquement. Car la majorité desdits amis n'a pas beaucoup posté sur l'affaire Fillon, mais l'algorithme de Facebook a identifé d'une part que cette affaire occupait un espace médiatique très important (ça c'est pas très difficile) et il a d'autre part constaté que ces contenus vous intéressaient. Il vous a donc présenté toute une série de publications sur cette affaire en les surexposant en termes de fréquence, dont celles de vos amis. Et vous vous êtes naturellement dits que cela ne pouvait pas être une simple coïncidence alors qu'au regard de l'ensemble des publications de l'ensemble des gens qui composent votre Timeline, il s'agit bien d'une forme de coïncidence dans la répartition statistique de l'ensemble des contenus publiés par vos amis.
Il vous est également sûrement arrivé de voir "remonter" (dans l'affaire Fillon ou sur tout autre sujet) des publications dont on s'aperçoit parfois qu'elles sont anciennes voire très anciennes sur un sujet donné avec lequel elles entrent en résonance et dont l'ancienneté est "masquée" par cette résonance particulière. Et là encore vous vous êtes peut-être dit : "tiens, quelle coïncidence troublante". Sauf que non. Point de coïncidence ici, mais un jeu algorithmique sur notre "absence de prise en considération de l'indépendance des événements".
s/ biais de négativité
La biais de négativité consiste à prendre davantage en compte les informations "négatives" au détriment des "positives". Concrètement et comme cela est expliqué sur Internet Actu ce biais:
"consiste à favoriser l’attention vers ce qui est désagréable et douloureux, et d’ignorer en conséquence tous les bons côtés d’une situation. (…) Ainsi nous avons tendance à éprouver plus d’empathie pour ceux qui souffrent que pour ceux qui vont bien. Ou nous possédons plus de termes pour définir les choses désagréables et un plus grand nombre de catégories cognitives pour décrire le malheur que le bonheur."
Ce biais de négativité est lui aussi au coeur des logiques de viralité des réseaux sociaux comme je l'évoquais plus haut et Facebook plus que d'autres est en permanence en train de jouer sur ce délicat équilibre : d'un côté il tente de favoriser les contenus "joyeux" pour influer sur notre humeur et libérer un maximum de temps de cerveau disponible à destination des annonceurs et de son modèle d'affaire, de l'autre il sait parfaitement que la colère et l'indignation étant les sentiments qui se partagent le mieux, certains contenus tristes, révoltants, "désagréables et douloureux" mettant en oeuvre ce biais de négativité vont aussi bénéficier de logiques de viralité et d'interaction très fortes et qu'il faut donc "équilibrer" et personnaliser en permanence ces deux faces de nos humeurs et de nos personnalités. Ce qu'il fait en surexposant les chatons trop mignons et les histoires d'enfants malades ou dénutris.
Cf ANNEXE 2 pour un petit récapitulatif.
Conclusion ?
Cette liste déjà pourrait être vue comme une source de découragement. Comment lutter contre l'ensemble de ces biais ? Et comment surtout imaginer que des plateformes ou des intermédiaires techniques en soient capables à l'échelle des millions de requêtes ou des milliards de profils qu'elles brassent chaque jour alors qu'il est déjà si difficile de se départir de ses propres biais à l'échelle individuelle ?
Pourtant j'ai plutôt envie de voir cet inventaire comme une bonne nouvelle : être capable de pointer les raisons de désespérer est déjà une bonne raison d'espérer ;-)
Connaître ces différents biais c'est déjà être davantage capable de comprendre les enjeux qu'ils mobilisent dans telle ou telle situation. Ensuite il faut comprendre qu'il ne s'agit pas de refaire ici le débat sur la bulle de filtre : il ne s'agit pas de savoir si ces biais sont de notre responsabilité ou de la responsabilité des plateformes dans, par exemple, la question de la "post-vérité" ; il ne s'agit pas non plus de leur appliquer un effet cigogne en accusant lesdites plateformes d'en être la cause.
Il s'agit d'établir une corrélation claire entre certains de ces biais cognitifs et la manière dont certaines plateformes dans certains contextes peuvent en effet contribuer, d'une part, à les instrumentaliser à des fins économiques (pour faire tourner leur régie publicitaire ou leur propre modèle d'affaire au regard des données personnelles collectées et accessibles), et d'autre part à augmenter les effets de ces biais. Une augmentation qui est le fait de la nature même des interactions sur lesquelles reposent ces plateformes davantage que celui d'une malhonnêteté fondamentale ou d'une stratégie de désinformation pensée et réfléchie ou au service de tel ou tel intérêt partisan. Ce qui ne les exonère en rien de leur responsabilité tant elles "jouent" de ces différents biais en le mettant souvent au service de leurs stratégies de persuasion technologique.
Moralité ?
Peut-être cette citation de Hannah Harendt.
Le texte original de l'interview en anglais dit ceci :
"The moment we no longer have a free press, anything can happen. What makes it possible for a totalitarian or any other dictatorship to rule is that people are not informed; how can you have an opinion if you are not informed? If everybody always lies to you, the consequence is not that you believe the lies, but rather that nobody believes anything any longer. This is because lies, by their very nature, have to be changed, and a lying government has constantly to rewrite its own history. On the receiving end you get not only one lie—a lie which you could go on for the rest of your days—but you get a great number of lies, depending on how the political wind blows. And a people that no longer can believe anything cannot make up its mind. It is deprived not only of its capacity to act but also of its capacity to think and to judge. And with such a people you can then do what you please."
Et vous pouvez en retrouver une version longue avec le film issu de cet entretien.
Fake News, Post Truth … tout le monde ment en permanence. Tous les vieux espaces de la parole politique s'effondrent, de Cahuzac hier à Fillon aujourd'hui pour ne prendre que les deux exemples les plus récents. Mais relire et revisionner ces hallucinantes séquences de mensonge public à la lumière de ce qu'en dit Hannah Arendt et après l'élection de Donald Trump nous alerte sur un autre point : ce systématisme dans le mensonge n'est pas que le stigmate apparent d'une oligarchie politique en fin de règne. Il prépare et crée les conditions d'une gouvernance par la pulsion. C'est à dire d'un nouveau totalitarisme. D'un nouveau fascisme. Dans lequel on n'aura plus à s'interroger longuement sur ces nouveaux régimes de post-vérité puisqu'ils ne seront plus que des formes déjà connues et archétypales de propagande. "Un assault contre la démocratie". "La langue des dictateurs".
Faire Fake Confiance
Du côté des "médias" l'ambiance n'est pas non plus à la fête. Ces derniers temps nombre d'études scientifiques et d'études d'opinion (je parle de celles avec une méthodologie sérieuse) viennent disséquer le phénomène des Fake News. Je voudrais revenir sur les résultats de 4 d'entre elles.
Les Fake News n'ont pas d'impact sur le résultat des élections.
"Social Media and Fake News in the 2016 Election" (.pdf) est un article scientifique de deux chercheurs américains (Stanford et NY University) daté de Janvier 2017. Ils arrivent à 4 conclusions importantes :
- Les médias sociaux restent une source d'information importante mais loin d'être dominante : "social media was an important but not dominant source of news in the run-up to the election, with 14 percent of Americans calling social media their “most important” source of election news"
- Pendant les trois derniers mois précédant l'élection, les Fake News favorisant le candidat Trump ont été partagées plus de 30 millions de fois contre seulement 8 millions de fois pour celles favorisant Clinton : "of the known false news stories that appeared in the three months before the election, those favoring Trump were shared a total of 30 million times on Facebook, while those favoring Clinton were shared eight million times;"
- l'américain moyen a vu et se souvient de seulement 0,92% des Fake News favorables à Trump et de 0,23% de celles favorables à Clinton avec seulement la moitié des personnes s'en rappelant qui indiquent les avoir crues : "the average American saw and remembered 0.92 pro-Trump fake news stories and 0.23 pro-Clinton fake news stories, with just over half of those who recalled seeing fake news stories believing them;"
- pour que les Fake News soient en capacité d'influencer le résultat de l'élection, un article "Fake" aurait besoin d'avoir le même effet de persuasion que 36 campagnes publicitaires télévisuelles. Et c'est (très) loin d'être le cas. "for fake news to have changed the outcome of the election, a single fake article would need to have had the same persuasive effect as 36 television campaign ads."
Les points 2 et 4 indiquent clairement un effet cigogne dans la manière dont "les médias" ont rendu compte du phénomène des Fake News : s'il y a bien corrélation, tout lien de causalité dans l'élection de Donald Trump est en revanche exclu.
On peut identifier une Fake News et la diffuser quand même.
De son côté le Pew Internet Research Center a publié fin décembre 2016 son étude sur le phénomène de Fake News dont les enseignements sont les suivants :
- La plupart des américains (indépendamment de leur niveau d'éducation ou de leurs idées politiques) pensent que les Fake News sont une source de confusion : "U.S. adults (64%) say fabricated news stories cause a great deal of confusion about the basic facts of current issues and events".
- mais ils se sentent capables de les identifier facilement : "with about four-in-ten (39%) feeling very confident that they can recognize news that is fabricated and another 45% feeling somewhat confident. Overall, about a third (32%) of Americans say they often see political news stories online that are made up."
- ce qui ne les empêche pourtant pas d'en diffuser eux-mêmes : "Overall, 23% say they have ever shared a made-up news story, with 14% saying they shared a story they knew was fake at the time and 16% having shared a story they later realized was fake."
Facebook est à la fois le problème et la solution.
La Columbia Journalism Review s'est elle aussi fendue de son enquête qui révèle que :
- l'audience des Fake News est réelle mais extrêmement minoritaire (10 fois moins que les "vrais" sites d'info)
- l'audience des Fake News stagne lors des pics d'audience des vrais sites d'info
- il existe des exceptions au point ci-dessus : ainsi le site extrêmiste conservateur Drudge Report est largement plus consulté que (par exemple) le Washington Post
- il n'y a pas de "bulle de filtre des fake news", c'est à dire que les gens qui visitent de vrais sites de presse visitent aussi des sites de fakes et réciproquement
- le rôle joué par Facebook est déterminant en termes de trafic et d'audience : près de 30% de l'ensemble du trafic vers de Fake News peut-être directement relié à Facebook contre seulement 8% pour les vrais sites d'info.
Ne nous trompons pas de crise de confiance.
Le baromètre annuel de La Croix en partenariat avec Kantar Sofres sur la confiance des français envers les médias vient de sortir et il est assez angoissant. Radio, télé, presse écrite, plus aucun média ne parvient à dépasser la barre des 50% de gens qui croient que les choses se passent réellement comme on le leur raconte (pour être exact seule la radio atteint les 52% mais elle est aussi à son plus bas niveau historique … hop vous l'avez vu passer le biais de cadrage ? 😉
Globalement le "niveau de confiance général des français envers les médias" n'avait pas été aussi bas depuis … 2002. 2002 c'est la réélection de Jacques Chirac à la présidence de la république française et l'arrivée d'un certain Nicolas Sarkozy au ministère de l'intérieur. Hé oui. Quand la droite arrive au pouvoir, la confiance des français envers les médias est au plus bas. Causalité ou corrélation ? 😉
Quand à "internet" que ce genre d'étude continue – hélas – de considérer comme "un média", le taux de confiance est à 28%.
"Quand tout le monde ment en permanence le résultat n'est pas que vous croyez ces mensonges, mais que plus personne ne croit rien."
Nous y sommes.
Dans la hiérarchie des moyens d'information les plus utilisés, "internet" se classe deuxième avec 25% derrière la télé (48%) et devant la radio (20%) et les journaux (6%).
Pourtant le même "internet" est celui qui suscite le plus la défiance des utilisateurs : 72% disent ne pas faire confiance aux informations qui y circulent.
Merveilleux paradoxe qui n'est plus si paradoxal que cela puisque qu'après lecture de ce billet vous aurez normalement compris. Compris que "sommer internet de dire la vérité" est une erreur.
Compris que ce que les gens vont y chercher, "sur l'internet", ce n'est ni de la confiance, ni de la vérité, mais une zone de confort cognitive qui leur permet … de voir la vie en biais.
Addendum.
Pour une présentation vraiment très simple, courte et à peu près complète de ces biais cognitifs, le site la Toupie propose une page bien fichue à compléter par celle de Wikipédia sur le même sujet.
La rédaction de cet article doit beaucoup aux articles d'Internet Actu, notamment le "petit catalogue de nos biais cognitifs" et "Comment l'effet Trump explique le comportement humain". Ainsi qu'à la page Wikipédia sur les heuristiques de jugement.
Et Camille Alloing vient de publier un billet qui prolonge ces réflexions sous un autre angle.
Annexes.
Annexe 1.
J'ai essayé de reproduire la circulation d'une information sur Facebook au regard des 4 phénomènes suivants : déterminisme algorithmique, audiences invisibles, spirale du silence et tyrannie des agissants.
Au départ, à l'extérieur des plateformes (Facebook par exemple), des faits, des informations, des opinions (en jaune à l'extérieur). Certaines d'entre elles vont se retrouver "dans" Facebook, par exemple un article de Libération publié dans Facebook par la page de Libération (en vert). D'autres sont publiées "nativement" et uniquement à l'intérieur de la plateforme (en jaune).
Un internaute (en bas) qui consulte son mur va donc voir défiler des informations qui passeront par un premier filtre algorithmique (on ne peut pas tout voir, l'algorithme choisit donc ce qu'il nous laisse voir). Cette information, si elle est un peu polémique et/ou sujette à débat va alors s'exposer à différentes spirales du silence (certains internautes de certaines communautés la commenteront, la likeront, la partageront en masse, d'uatres au contraire la signaleront). Cette même publication va ensuite se polariser autour de ce qu'en feront les communautés "agissantes" qui s'en empareront. Ainsi, en fin de chaîne, quand l'internaute "dans" Facebook en prend connaissance l'info arrive telle qu'elle a été produire mais avec 3 "pastilles" qui représentent les contextes énonciatifs et algorithmiques qui lui ont permis de la voir.
Si c'est maintenant ce même internaute qui publie une info ou un statut, il ne sait pas si les gens à qui il la destine sont présents ou absents au moment de la publication (audience invisible). Cette publication va ensuite elle-même être contrainte par le cercle de silence dans lequel il s'inscrit (ou qu'il brise, c'est possible aussi :-). Elle va alors être "moulinée" par différents déterminismes algorithmiques (et publicitaires) qui vont au final déterminer sa visibilité et son exposition.
La petite flèche en pointillé sur la gauche indique qu'il n'est pas possible d'accéder directement à une information à l'intérieur de Facebook (ou d'une autre plateforme) sans qu'elle ne soit soumise à ces différents filtres.
Venons-en enfin aux interactions entre déterminisme algorithmique, audiences invisibles, spirale du silence et tyrannie des agissants (ce sont les flèches bleues). La tyrannie des agissants est susceptible de causer ou d'aggraver la spirale du silence. Les audiences invisibles déterminent en partie cette spirale du silence. Tyrannie des agissants et audiences invisibles ont des rapport plus directs (c'est pour ça que je les ai mis au même niveau) dans la mesure où ils s'auto-déterminent mutuellement (les agissants font partie des audiences invisibles et les audiences invisibles se nourrissent de la tyrannie des agissants). Le déterminisme algorithmique (ou plutôt "les" déterminismes algorithmiques) a pour fonction de pondérer la tyrannie des agissants en l'interprétant ou plus exactement en la quantifiant, et il a aussi pour fonction de "calculer" au sens premier les audiences invisibles auxquelles il soumettra au final la publication.
Voili voilà.
Annexe 2.
Donc là bon ben j'ai tout remis en insistant simplement sur le fait que l'on pouvait (en gros) décomposer l'ensemble de ces biais et de ces invariants en trois grandes catégories (biais techniques, comportementaux et de raisonnement), chacune d'elle se déclinant soit sur des modalités principalement individuelles ou plutôt collectives. Et comme j'ai eu la flemme mais qu'on est quand même déjà à 10 000 signes pour ce "billet de blog", j'ai même pas fini le boulot de classement entre logiques individuelles ou collectives pour les biais de raisonnement. Mais vous ne m'en voudrez pas. Enfin j'espère.
Cher Monsieur,
Depuis le temps que je vous lis, je pourrais presque vous tutoyer. Et donc, merci de mettre ce travail, votre travail à portée et à disposition. D’autant que les questions abordées sont loin d’être anodines et nous concernent tous en tant qu’être politique soucieux de ne pas se retrouvés réduit à une bouillie de comput numérico-biologique (encore Foucault !)
Je réagis à ce qui me semble un petite faiblesse dans ce billet. Je cite :
« On se tait devant la parole raciste, sexiste ou misogyne parce que l’on a l’impression que c’est cette parole qui est le point de vue dominant. » Il y a bien d’autres raisons encore. En voici une. La peur peut-être de sa propre agressivité maigrement recouverte d’un « si fragile vernis de civilisation » nous arrête peut-être face à des propos qui nous convoque à notre propre barbarie.
Je crois que lors de discussions IRL ou sur Facebook, j’ai atteint des sommets d’envie de meurtre face à certains propos racistes. Est-ce cela que l’on veut éviter ???
Il est plus facile d’être raciste face à des anti-raciste que l’inverse. Il est par contre très facile d’être antiraciste avec des anti-raciste. Quelques menus propos inspiré de « Considérations actuelles sur la guerre et sur la mort » de Mr Freud
Je vous remercie encore pour ce grain à moudre et vous encourage dans la rédaction du livre évoqué. Croyais que j’en ferais une large publicité, et notamment auprès des étudiants avec lesquels je travaille -chuis documentaliste-
Portez-vous bien
Bonjour,
J’avais écris fin 2015 un billet de blog sur un sujet proche, bien avant donc que l’on parle partout des fake news & co. Il est clairement moins approfondi que le vôtre, mais a le mérite (je crois) de concerner un espace de circulation d’information, où se passent des phénomènes semblables, mais que vous n’évoquez pas (si j’ai bien tout lu). Je fais référence aux chaînes de courriels, qui se déploient dans un espace situé dans un interstice, entre les plateformes type Facebook et les discussions de comptoirs. Peut-être l’avez-vous lu, peut-être pas. Dans le doute, je pose ça là : https://laspic.hypotheses.org/3714
Une petite remarque en passant, peut-être que la distinction entre le biais c/ et le g/ mériterait d’être clarifiée. Pour ma part, je ne vois pas de différence nette. Dans les deux cas il est question de persistance cognitive d’une information sur autre postérieurement acquise. La croyance n’est-elle pas un ancrage (et vis et versa) ?
En tout les cas, merci pour cet inventaire détaillé. En ce qui me concerne, il ne manquera pas d’être utile.
À Jonathan, l’hyperlien proposé ne mène nulle part.😳
@DG : Zut. Le point de la fin de phrase a été inclus dans l’hyperlien. Il faut le retirer dans la barre d’adresse. Sinon normalement ce lien devrait mieux marcher : https://laspic.hypotheses.org/3714
Merci. 🙂
TL;DR
Bonjour et merci infiniment pour votre générosité en partage de savoirs et d’informations.
Je vous suis reconnaissante..
Je fais partie intégrante de la « France d »en bas », ignare en informatique, j’ai appris sur le tas, et sur le tard (avec l’aide des enfants et petits enfants) le minimum pour pouvoir utiliser le clavier.. et lire l’écran et faire circuler les informations qui donnent matière à réfléchir.. et à essayer de comprendre.
Je ne me prive donc pas de faire connaître vos travaux.
Merci à vous
Ceux qui font tout pour empêcher que le débat ait lieu sur le 11 septembre utilisent souvent ces biais :
https://twitter.com/ReOpen911_info/status/739506557239603201