"WorldBrain" pour les uns, "Hypercortex" pour les autres, la question de la possibilité d’une entité subsumant l’ensemble des connaissances humaines et dépassant en complexité notre propre cerveau, cette idée a traversé l’histoire des idées de la seconde moitié du XXème siècle (de Vannevar Bush à Ted Nelson : voir les thèses d’Alexandre Serres ou de votre serviteur). A l’heure actuelle, le retour du syndrôme Big Brother, l’avènement du web en tant qu’architecture rhizomatique et non plus simplement hypertextuelle, la concentration des acteurs en la matière et les ambitions affichées de certains, le réussite des modèles collaboratifs, l’avènement de l’informatique nomade, la bascule des pratiques informationnelles vers un "tout-en-ligne" (dérive des continents informationnels), cet ensemble de paramètres et quelques autres que j’oublie conduisent à poser la question sous un angle "nouveau" : le web est-il un super-cerveau ? Pour reprendre les termes de Kevin Kelly dans Wired :
- "This planet-sized computer is comparable in complexity to a human
brain. Both the brain and the Web have hundreds of billions of neurons
(or Web pages). Each biological neuron sprouts synaptic links to
thousands of other neurons, while each Web page branches into dozens of
hyperlinks. That adds up to a trillion "synapses" between the static
pages on the Web. The human brain has about 100 times that number – but
brains are not doubling in size every few years. The Machine is."
Juste un autre extrait pour vous donner envie de lire l’original :
- "What happens when the data flow is asymmetrical – but in favor of
creators? What happens when everyone is uploading far more than they
download? If everyone is busy making, altering, mixing, and mashing,
who will have time to sit back and veg out? Who will be a consumer? No one. And that’s just fine." - toujours pas convaincu ?
- "Think of the 100 billion times per day humans click on a Web page as a way of teaching the Machine what we think is important."
A la lecture de cet article passionnant, JP Basquiast en produit un second en réponse sur le blog d’Automates Intelligents. Là encore, je ne vous livre que la conclusion :
- "Il est donc inutile de faire de
longs développements pour montrer que l’intelligence globale n’existe
pas encore dans le Web, pour la raison principale que celui-ci n’est
pas organisé comme un cerveau biologique. Le Web se borne, et c’est
déjà considérable, à enrichir (augmenter) les intelligences
individuelles et collectives de ceux qui l’utilisent. Cela leur confère
un avantage compétitif considérable par rapport au reste de l’humanité. Ce sera sans doute l’objectif des
futurs moteurs de recherche et d’édition que permettre l’émergence de
patterns de représentation de plus en plus globaux, pouvant
correspondre à l’apparition sur le Web d’une conscience voire d’une
conscience volontaire globale. Sera-ce possible ? Sans doute. Qui en
bénéficiera ? Les utilisateurs de la périphérie ? Des pouvoirs
politiques centraux visant à réguler ou mobiliser les données du Web à
des fins impériales ou impérialistes ? Bien pire ou bien mieux : ne
s’agira-t-il pas d’émergences informationnelles et computationnelles
qui s’imposeront d’elles-mêmes aux hommes connectés au Web et qui
prendront le pouvoir sur eux, comme le prédisent certains auteurs de
science-fiction ?"
Deux articles. Deux points de vue. Une (bonne) dizaine de minutes de lecture. Et on s’endort plus intelligent 🙂
Très intéressant ce post. J’en viens également à me demander si internet ne deviendra pas une entité « consciente » aussi. Dans ce cas, les scénarios comme matrix ou encore irobot ne semblent pas si improbables. A méditer.