Ceci ne tuera peut-être pas cela, mais ceci n’est pas non plus cela.

Victor Hugo. Notre Dame de Paris. Livre 5. Chapitre 2.

"Ceci tuera cela ; le livre tuera l'édifice".

Métaphore usée jusqu'à la corde et trop souvent brandie comme étendard à tout propos, dont celui du (livre) numérique ou des (usages) numériques censés tuer le (livre et la chaîne du livre) physique et les (usages ou rapports sociaux) "réels". Métaphore idiote mais commode pour déficit de pensée critique accomodante.

Circulez, y'a rien à liker.

L'appréhension des phénomènes d'appropriation, de partage et de diffusion propres aux environnement numériques n'en reste pas moins une interrogation légitime. J'ai souvent décrit et décliné ici, ce qui me semble être une observation de bonne foi sur les logiques de partage : le plus souvent, la duplication et la propagation de contenus ne relève pas d'un authentique processus de partage ou d'implication mais procède plutôt d'une simple et relativement stérile "rediffusion", la notion de partage impliquant la possibilité d'une (ré-)appropriation souvent absente dans nos "share", "retweets", et autres "like". Le "like" comme dérobade plutôt que comme adhésion, une dérobade dont les ressorts émotionnels/pulsionnels sont connus.

M'en parlez pas ma pauv'dame. Ben si justement.

Deux études viennent simultanément corroborer ces observations. "On ne partage pas un article, on partage sa réaction à un article", sur Slate.fr, également chroniqué sur ZDNet ("partager n'est pas lire") et "Les réseaux sociaux nous apprennent à copier, pas à apprendre", toujours sur Slate.fr.

De ces 3 articles rendant compte d'études dont je vous laisse retrouver la source, on apprend et vérifie que dans le cadre des supposés "partages" sur les réseaux :

  • le contenu de l'article compte peu
  • les contenus les plus partagés sont ceux qui sont les moins "lus", "vus", ou ceux qui sont les plus "survolés"
  • il n'y a aucune corrélation entre le fait de "tweeter" un article et celui de le lire
  • ce qui n'est pas si grave vu que de toute façon les grands réseaux sociaux génèrent encore peu de traffic sur les sites d'actualité

On apprend également que les processus de "mimesis" sont très forts et que, sur une question ou un problème donné pour lequel on sollicite leur réponse, les utilisateurs disposant d'un réseau relationnel étendu vont corriger et adapter leur réponse en fonction des réponses majoritaires dans leur réseau. Et je vous livre in extenso la conclusion de l'étude telle que chroniquée sur Slate :

"Conclusion: les réseaux sociaux peuvent aider à résoudre des problèmes mais «ne propagent pas le raisonnement analytique nécessaire pour arriver indépendamment à la bonne réponse: ils peuvent seulement propager la bonne réponse». Sur un plan plus large: "Certains ont suggéré qu’Internet nous rend stupides, […] d’autres que ces technologies élargissent les possibilités d’apprendre, de résoudre des problèmes et de prendre des décisions mieux informées. De manière intrigante, ces résultats suggèrent que ces deux visions peuvent être justes selon le moment." "Le problème est que ce processus nous fait paraître plus intelligents sans nous rendre plus intelligents", a déclaré Iyad Rahwan au site Mother Nature Network. "La société dans son ensemble peut donc apparaître plus réfléchie sans que les individus le soient."

Une grosse bulle d'idiots pas civilisés ?

Bref rien de très nouveau : effet moutons de panurge, sur-représentation et contamination des opinions dominantes, "partage" dicté par le pulsionnel et qui a pour principal objectif de nous permettre de nous livrer à une documentation de nous-mêmes "en représentation" sur notre scène sociale, autant de phénomènes qu'Eli Pariser avait déjà pour l'essentiel documenté et démontré dans sa "filter bubble". Croisez ces informations avec le "Google nous rend idiot" popularisé par Nicolas Carr, ajoutez, pour les plus rétifs au numérique d'entre vous une dose de pensée (sic) de notre Finkie national, et vous disposerez de la panoplie du parfait Luddiste du XXIème siècle. Bref, le numérique c'est la jungle, entre "Mowglis digital natives" et "Tarzans no-life décérébrés", on s'en va vous reciviliser tout ça et fissa.

Point break of singularity.

Oui mais. Je voudrais maintenant vous parler de deux autres nouvelles a priori sans lien avec les précédentes.

Une récente interview de Ray Kurtzweil (salarié de Google) au Guardian, qui fixe désormais à 2029 le moment de "singularité" où les ordinateurs seront capables de pensée et de raisonnement dans le cadre d'intelligences artificielles. Voilà pour la première nouvelle. La seconde concerne l'apprentissage "profond", avec la récente embauche d'un frenchie pour diriger le laboratoire d'intelligence artificielle de Facebook. Et c'est quoi "l'apprentissage profond" ?

"Le cerveau des humains et des animaux est "profond", en ce sens que chaque action est le résultat d'une longue chaîne de communications synaptiques qui représentent plusieurs couches de traitement. L'apprentissage profond tente de faire quelque chose de similaire dans les machines. Nous créons des réseaux de neurones computationnels, à plusieurs couches de profondeur, qui peuvent apprendre à représenter des caractéristiques du monde, qu'il s'agisse de mots, d'images ou autres. Nous croyons qu'en comprenant l'apprentissage profond nous pourrons concevoir des machines plus intelligentes." (source)

Et maintenant rappelons ce fait, cette constante, qui veut que les dispositifs technologiques fonctionnent par engrammation ("mise en mémoire") et procèdent d'une constante et inexorable externalisation de nos mémoires d'abord documentaires, puis de travail, puis personnelles. Et ajoutez le fait que "le" numérique reconfigure littéralement nos stratégies et nos capacités cognitives du fait de la très grande plasticité neuronale de notre cerveau et que nous ne savons pas ce qui en sortira, nous nous bornons (enfin pas moi, des études scientifiques sur imagerie médicale) à le constater et à commencer à l'observer.

L'homme, cet algorithme perfectible.

Vous y êtes ? Bon. Voilà ce qui me trouble profondément dans la juxtaposition de cet ensemble de faits. Schématiquement, on pourrait en déduire qu'à mesure d'un supposé abrutissement technologique (Carr, Finkelkraut), qu'à mesure du "lissage" vers des opinions dominantes et de la diminution afférente des opinions moins représentatives (Eli Pariser), le tout étant pris dans l'externalisation continue de nos mémoires au sein d'écosystèmes informationnels de plus en plus fermés et propriétaires, les capacités de raisonnement des algorithmes et des grands écosystèmes numériques croissent de manière également constante jusqu'à se rapprocher d'une forme d'intelligence pour l'instant plus "assistée" que réellement "artificielle" mais bon quand même.

Encore plus schématiquement cela donnerait la chose suivante : pendant que nous devenons de plus en plus bêtes ou moutonniers, les algorithmes eux, deviennent de plus en plus "capables" d'une forme d'intelligence. Et qu'il y ait corrélation ou causalité entre ces deux énoncés ne concourt en rien à en réduire la portée relativement angoissante.

Systémique ta mère.

En cela notre époque est passionante. Car cet ensemble forme un tout. L'évolution de nos capacités cognitives (à la hausse ou à la baisse), les stratégies mémorielles mobilisables dans un processus d'externalisation exponentiel, la plasticité neuronale de notre cerveau qui reconfigure en permanence l'horizon des évolutions possibles (à la hausse ou à la baisse), et les développements technologiques de l'ingénierie algorithmique au service d'une potentielle intelligence artificielle, chacun de ces points s'inscrit dans une systémique globale de notre rapport au numérique et au monde, une systémique dans laquelle nombre de boucles de rétroactions (au sens cybernétique) sont déjà en place, et où d'autres se créent et se reconfigurent en permanence.

Bot Web

La pire des approches, la plus contre-productive des stratégies, consisterait à revenir au prêche, celui de Notre Dame de Paris cité au début de cet article : "ceci tuera cela ; l'ordinateur tuera notre intelligence ; les réseaux sociaux tueront nos relations sociales, la rediffusion pulsionnelle tuera le partage authentique, etc." Mais il serait également criminel de faire preuve d'un irénisme technophile de bon aloi ou de s'obstiner à jouer, à titre individuel et collectif, le jeu d'écosystèmes prédateurs qui se nourissent d'intelligence** pour ne nous en restituer que quelques buzz-liens ("l'intelligence" étant étymologiquement la capacité à créer … des liens). A moins que.

A moins bien sûr que ce que l'on appelle intelligence n'ait déjà essentiellement changé de camp : le web comme proto-organisme géré, parcouru et principalement visité par … des robots concourant eux-mêmes à créer une intelligence collective artificielle, des robots qui depuis longtemps déjà éditent et corrigent nos articles sur Wikipédia, des robots qui rédigent eux-mêmes des articles, des robots qui changent eux-mêmes les titres de nos pages web s'ils les jugent trop mauvais

Boot Me

Et si c'était nous qui imitions ces robots ? Et si lorsque nous rediffusons un article sans le lire nous ne faisions finalement rien d'autre qu'imiter ces … robots ?? Si l'intelligence est la capacité de créer du lien, comment aujourd'hui prétendre nier que nous faisons d'ores et déjà face à une formidable et parfaitement inédite forme d'intelligence "automatique" du côté des machines et des algorithmes ? Et que de l'automatique à l'artifice … Mais comment ne pas voir du même coup l'évidence qui veut que l'essentiel de l'activité en ligne de l'essentiel des internautes ne soit un retour en arrière vers un degré zéro de l'intelligence : même plus la capacité de créer des liens, seulement celle d'en rediffuser d'existants, qui nous sont eux-mêmes souvent proposés par la machine, par l'algorithme.

Mind. The Gap.

Ceci donc, ne tuera pas cela. Ceci procédera tout au contraire de nouvelles mises au monde. Mais ceci n'est pas non plus exactement cela. C'est dans cet infime précipice qu'il nous reste pour l'instant encore une magnifique marge de manoeuvre, à condition de bien se donner le temps de la réflexion permettant de maîtriser au mieux les différentes inconnues de cet écheveau complexe et en renégociation permanente que l'on appelle, encore, parfois, "le numérique", et dans lequel il peut à chaque instant suffire d'un tweet, d'un gazouillis pour avoir l'impression que …

… "le moindre chant d'oiseau est un précipice qui s'avance pour t'avaler." Eugène Guillevic.

4 commentaires pour “Ceci ne tuera peut-être pas cela, mais ceci n’est pas non plus cela.

  1. «le plus souvent, la duplication et la propagation de contenus ne relève pas d’un authentique processus de partage ou d’implication mais procède plutôt d’une simple et relativement stérile “rediffusion”»
    La prise en compte, élémentaire, d’une dimension comme la viralité, qui diverge énormément selon les contenus, montre que l’activité de “rediffusion” permise par les outils interactifs est bel et bien qualitative. D’autres paramètres, comme l’hybridation des contenus personnels et des contenus médiatiques, ou la dimension conversationnelle, curieusement absente de ta description, viennent corser l’affaire, qui participe de plusieurs opérations de reconfiguration simultanées. Bref, qualifier cette activité de “stérile” me paraît un jugement un peu court, si l’on se souvient que l’histoire des circulations culturelles est une histoire de longue durée, dans laquelle les formes récentes représentent incontestablement une étape majeure.
    Entre irénisme et catastrophisme, un peu de sens de la négociation et de la complexité ramène sur la terre ferme de l’observation – mais fait assurément de moins bon titres… 😉

  2. Salut André,
    la dimension conversationnelle n’est pas absente de ma description : elle est explicitement mentionnée dans le papier de Vincent Glad et évoquée quand je parle de “documentation de nous-mêmes en représentation sur notre scène sociale”. Je t’accorde volontiers que j’aurais pu y accorder plus d’importance, mais accorde-moi que ce n’était pas non plus l’objet de mon billet 🙂
    Lequel billet mériterait en effet d’être bcp plus nuancé sur les points que tu mentionnes, mais l’idée était de ne les convoquer que comme amorçes à l’appui de mon argumentation (là encore toujours nuançable) sur un renversement de la notion d’intelligence.

  3. Si l’on suppose que ” ce que l’on appelle intelligence n’ait déjà essentiellement changé de camp “, évidemment… N’est-ce pas un peu rapide, le camp de l’intelligence ?
    Quant à l’étymologie, religion aussi, c’est ce qui relie. N’accordons pas trop de foi à l’étymologie.
    Quant à la “rediffusion”, à l’esprit de Panurge, ça ne date pas des réseaux sociaux, qui ne font sans doute qu’amplifier des comportements sociaux.
    Dernière remarque : que faire de l’oubli, qui est un processus essentiel, me semble-t-il, du “choisir entre” (autre étymologie possible d’intelligence)

  4. “Si l’on suppose que ” ce que l’on appelle intelligence n’ait déjà essentiellement changé de camp “, évidemment… N’est-ce pas un peu rapide, le camp de l’intelligence ? ”
    Peut être

Répondre à Gunthert Annuler la réponse

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Articles similaires

Commencez à saisir votre recherche ci-dessus et pressez Entrée pour rechercher. ESC pour annuler.

Retour en haut