L’algorithme des pauvres gens.

=========================================

Comme cet article sur le changement annoncé dans le News Feed de Facebook est un peu long, et comme vous êtes – peut-être – pressés, je vous en livre ici la conclusion ex abrupto. Bonne lecture aux pressé(e)s et aux autres 🙂

Pour une raison dont finalement Mark Zuckerberg sera le seul comptable, cet énième changement du News Feed et son recentrage sur les interactions grégaires me semble surtout être un message de nature politique adressé à la communauté qu'il préside de fait, pour lui faire accroire que ces algorithmes de plus en plus critiqués et honnis sont aussi, en un sens, ceux des pauvres gens. L'algorithme des pauvres gens. 

========================================= 

"Ne rentre pas trop tard, surtout, ne prends pas froid." Les mots des pauvres gens disait Léo. Ferré. Schopenhauer de son côté imaginait le monde comme volonté et comme représentation. 

Pourquoi parler de cela ? Parce qu'une nouvelle fois Facebook a changé. Nous dit avoir changé. Nous annonce qu'il va changer. Qu'il va donc essayer de nous changer. En mieux, dit-il. Plus précisément non pas Facebook mais "l'algorithme". L'algorithme qui pilote le News Feed, qui est à la fois sa volonté et qui forge nombre de nos représentations. Mark Schopenhauerberg. Et que s'il change c'est pour rapprocher les gens. Les pauvres gens.

En quelques mots donc. D'un côté nous avons une importante et récurrente crise d'image pour la société au grand F bleu. Une crise qui depuis trop longtemps couve au Facebookenstein. A tel point que pour ses voeux du nouvel an Zuckerberg nous annonce vouloir se consacrer à … "régler les problèmes de Facebook". 

"Le monde semble anxiogène et divisé, et Facebook a beaucoup de travail à faire – qu’il s’agisse de protéger notre communauté contre la cruauté et la haine, de la défendre contre les interférences des Etats, ou de s’assurer que le temps passé sur Facebook est du temps bien dépensé. Mon défi personnel de 2018 est de me consacrer à régler ces problèmes. (…) Nous ne pourrons pas empêcher toutes les fautes et les abus, mais nous faisons pour l’instant trop d’erreurs dans la façon dont nous appliquons nos règles et tentons de contrecarrer les détournements de notre outil."

Wesh Marko, y'a du boulot.

Et donc à peine 10 jours après avoir annoncé ses bonnes résolutions, voici l'annonce de la première d'entre elles qui concerne le fait de s'assurer "que le temps passé sur Facebook est du temps bien dépensé". Comment ? En sous-pondérant l'affichage des pages, des marques et des médias dans le News Feed et en sur-pondérant l'affichage des messages et contenus échangés, publiés et commentés par et avec nos proches. Bref en revenant aux fondamentaux de la kakonomie telle que définie par Gloria Origgi :

"La kakonomie c'est l'étrange mais très largement partagée préférence pour des échanges médiocres tant que personne ne trouve à s'en plaindre. (…) Facebook et d'autres sites similaires (Twitter, etc) sont des exemples de l'économie du nouveau millénaire, la face cachée des préférences humaines que nous souhaitons cacher dans l'espace public "high" (de haute qualité), mais que nous adorons partager avec des gens dont nous sommes sûrs qu'ils sont attachés aux mêmes standards "low" (de qualité médiocre). (…) La kakonomie est régulée par une norme sociale tacite visant à brader la qualité, une acceptation mutuelle pour un résultat médiocre satisfaisant les deux parties, aussi longtemps qu'elles continuent d'affirmer publiquement que leurs échanges revêtent en fait une forte valeur ajoutée.

Voici ce qu'Adam Mosseri, le "chef du News Feed" explique dans le communiqué de presse publié le 11 Janvier (je souligne) : 

"Today we use signals like how many people react to, comment on or share posts to determine how high they appear in News Feed. With this update, we will also prioritize posts that spark conversations and meaningful interactions between people. To do this, we will predict which posts you might want to interact with your friends about, and show these posts higher in feed. These are posts that inspire back-and-forth discussion in the comments and posts that you might want to share and react to – whether that’s a post from a friend seeking advice, a friend asking for recommendations for a trip, or a news article or video prompting lots of discussions. We will also prioritize posts from friends and family over public content, consistent with our News Feed values."

Voilà. Donc en gros "prédire" quels posts généreront le plus d'interactions et les mettre systématiquement en avant dans le News Feed. Et prioriser les contenus de nos amis et de notre famille. De manière suffisamment subtile pour ne pas trop effrayer les annonceurs (raté, comme nous le verrons plus tard) : on verra toujours certains contenus de médias, marques, pages, mais à condition qu'ils parviennent vraiment à créer beaucoup d'engagement et d'interactions.

Et de poursuivre en expliquant que oui bien sûr la portée organique (le "reach") des pages et des contenus "publics" allait considérablement baisser. 

"As we make these updates, Pages may see their reach, video watch time and referral traffic decrease. The impact will vary from Page to Page, driven by factors including the type of content they produce and how people interact with it. Pages making posts that people generally don’t react to or comment on could see the biggest decreases in distribution. Pages whose posts prompt conversations between friends will see less of an effect."

Je vous laisse imaginer le vent de panique dans le landerneau des pages, marques et médias qui ont fait de Facebook l'alpha et l'oméga de leur stratégie de visibilité et d'audience. Ainsi que pour nombre de Community Managers. D'autant que récemment, Facebook s'était livré à une expérience assez commentée, consistant carrément à fracturer en deux le "mur" pour n'y garder que les contenus de nos proches et reléguer dans un espace à part l'ensemble des contenus "publics"**.

** Même si Facebook en parle comme ça, je mets de mon côté l'idée de "contenu public sur Facebook" entre de gros, d"énormes guillemets, étant entendu que Facebook n'est justement pas un espace public mais un espace "semi-public et semi-privé" (cf travaux de danah boyd). 

Du coup le voilà obligé de "rassurer" ses utilisateurs "Business" en indiquant que les pauvres gens que nous sommes pourront quand même continuer de voir les contenus des marques et des annonceurs, mais beaucoup moins qu'avant quand même. 

Tout ça pour … quoi ? 

Pour plusieurs choses. Et reconnaissons que c'est assez malin. Une sorte de coup du chapeau (HatTrick) de la communication de crise.

Première action décisive. Avec cette annonce, Zuckerberg, et c'est l'objectif premier, va doper le budget publicitaire de Facebook. La plupart des marques, médias et annonceurs ont déjà la boule au ventre suite à l'annonce assumée et programmée de cette baisse de la visibilité et de la portée "organique" de leurs publications, marques, médias et annonceurs vont donc faire ce qu'il faut pour la compenser et l'anticiper : c'est à dire augmenter le budget publicitaire consacré à la visibilité de leurs contenus. Par effet de bord, Facebook modèle intelligemment son écosystème tiers, réussissant à rappeler sans le dire que la visibilité publicitaire de certains contenus, si elle ne se joue plus entièrement dans Facebook, peut aisément se déporter sur – par exemple – Instagram, où pour le coup l'engagement et la visibilité des marques sont plutôt à la hausse depuis quelques temps. Soit, pour le clin d'oeil à Antonio Casilli, une autre "vision hydraulique" des usages.

Deuxième action décisive : Zuckerberg indique à la Zuck Nation et aux médias qu'il a entendu les plaintes du Facebookenstein et qu'il est soucieux de s'attaquer rapidement aux dérives d'un temps passé sur le réseau social qui serait du temps "mal dépensé".

Troisième action décisive : Zuckerberg entretient l'idée que l'interaction avec notre famille et nos amis serait presqu'ontologiquement de l'interaction positive, vertueuse et du "Time Well Spent" alors que l'interaction avec des annonceurs marques et médias serait tout aussi essentiellement "mauvaise". Une idée par ailleurs tout à fait fausse ou à tout le moins jamais scientifiquement prouvée autrement que par des chercheurs de Facebook sur la base de données exclusivement fournies par Facebook. 

Le résultat de tout cela, c'est que comme l'écrit et le démontre Antonio Casilli en empruntant d'autres voies que les miennes, "nos usages vont être plus prescrits et sur-déterminés". 

Pour l'instant, les marchés financiers n'ont pas trop l'air de kiffer l'idée qu'il allait falloir payer toujours plus pour être toujours moins visible et l'action Facebook dévissait de plus de 4 points suite à l'annonce de cette modification du News Feed.

Baisser artificiellement la portée organique des pages permettra-t-il de lutter contre les Fake News ?

Question souvent posée. Réponse : Non #IMHO. Pour plusieurs raisons. La première est que les Fake News sont au moins autant un problème de réception (côté usagers donc) qu'un problème d'émission (du côté des sites qui en sont à l'origine). Les gens continueront donc d'échanger sur des contenus à la viralité importante et ces pages là, dont la tonalité est souvent au mieux racoleuse et au pire "Fake", ne verront pas nécessairement leur visibilité baisser :   

"Pages whose posts prompt conversations between friends will see less of an effect."

Comme je l'ai déjà expliqué, le régime de vérité de Facebook est entièrement bâti sur la notion "d'engagement", et ce faisant il favorise la sur-exposition de contenus dont la valeur d'engagement est souvent proportionnelle à leur inexactitude factuelle ou à leur capacité à susciter indignation et polémique. Donc en aucune manière il ne faut imaginer que cette modification du News Feed puisse avoir un effet sur la question des Fake News.

Le New-York Times vient d'ailleurs de publier un papier où il montre que l'expérience visant à dissocier totalement les news du fil d'actualité de nos amis, mise en place dans un nombre très limité et très particulier de pays (Slovaquie, Sri Lanka, Cambodge, Bolivie, Guatemala et Serbie) avait au contraire conduit à amplifier considérablement l'occurence et la rémanence des Fake News.

Et l'on semble redécouvrir qu'au-delà des invariants sociologiques du partage d'information dans des réseaux de pairs, entrent également en ligne de compte et pour une part souvent aussi considérable que sous-estimée, des facteurs économiques et politiques liés à la nature du régime dans lequel le réseau social est implanté – et donc à la liberté de la presse qui y est possible ou impossible -, mais également des facteurs culturels. Et que c'est cet ensemble tripartit (invariants sociologiques du partage + facteurs économiques et politiques du régime hôte + facteurs et traits culturels) qui sont à leur tour brassés en temps réel par un écheveau algorithmique complexe pour donner à voir une dimension d'engagement extrêmement difficile à "isoler" pour la traiter et en comprendre les logiques propres.

Le problème des Fake News est multi-factoriel. Pour prendre une analogie que j'espère éclairante, ce n'est pas uniquement une variable ou un changement algorithmique mais c'est aussi un ensemble de facteurs linguistiques, historiques, culturels qui font que la requête "nazi" donnera des résultats radicalement différents lorsqu'elle est tapée dans la partie allemande, américaine ou française du moteur de recherche Google. Le fait que le parti Nazi américain apparaisse en premier sur la partie américaine du moteur n'est pas un "faux-résultat", il est le résultat de l'itération calculatoire de logiques d'audience et de visibilité sur un fait historique et culturel dans le contexte politique d'une société donnée à un moment précis et daté. Il ne faut pas y voir une raison pour vouloir tondre les algorithmes à la libération.

La crise des interfaces et le troisième âge du WYSIWYG.

J'ai commencé cet article en évoquant "Le monde comme volonté et comme représentation" de Schopenhaueur, et en préparant mon intervention au séminaire d'Antonio Casilli l'autre jour, j'ai tenté de raconter les 7 crises de "gouvernementalité algorithmique" que traversaient, selon moi, les grandes plateformes actuelles.

J'ai désigné l'une de ces crises comme étant une crise des interfaces de représentation, une crise de ce qui "peut" être représenté, le verbe pouvoir ayant ici le double sens de "permission" (ce que l'algorithme ou la plateforme – via ses CGU – tolère) et de "capacité" (y compris de capacité à fausser ou à détourner certaines représentations). 

Les plus anciens d'entre vous se souviennent peut-être de ce qu'est une interface "WYSIWYG", l'acronyme signifiant "What You See Is What You Get". Une interface WYSIWYG c'est, nous dit Wikipédia

"une interface utilisateur qui permet de composer visuellement le résultat voulu, typiquement pour un logiciel de mise en page, un traitement de texte ou d’image. C'est une interface « intuitive » : l’utilisateur voit directement à l’écran à quoi ressemblera le résultat final."

A l'échelle du News Feed par exemple, les crises de la représentation sont légion et font régulièrement les choux-gras de la presse : elles se nomment, pour ne prendre que les plus connues, l'origine du monde, un téton, une photo qui remporta le prix Pulitzer, mais aussi un enfant retrouvé mort sur une plage. Il y a, dans le News Feed en particulier, une forme d'éditorialisation algorithmique qui est déterminante et souvent déterministe dans sa capacité à produire de la norme, sa capacité à normer des conduites, des comportements et des opinions.

Ce que vous voyez. Longtemps les plateformes ont nié toute forme d'éditorialisation, s'abritant derrière des choix algorithmiques dont on tentait de nous faire croire qu'ils n'étaient que l'itération de variables mathématiques coupées du monde et de toute valeur politique ou morale. WYSIWYG : ce que vous voyez c'est ce que vous obtenez. Comprenez : l'algorithme ne vous cache rien.   

Ce que vous voulez voir. Devant l'accumulation de faits et de preuves, elles ont fini par reconnaître que cette éditorialisation était opérante et les plateformes nous ont alors proposé d'entrer dans ce deuxième âge qu'est le WYSIWYWTS : "What You See Is What You Want To See". Comprenez : à chacun d'entre vous de nous dire ce qu'il souhaite voir et ce qu'il ne souhaite pas voir, à chacun de dire ce qu'il trouve trop violent, trop sexuellement explicite, trop religieusement offensant. C'est ce WYSIWYWTS que promettait Zuckerberg dans sa lettre du 16 Février 2017, souvenez-vous :

"L'idée c'est que chacun dispose d'options lui permettant de régler ses propres paramètres concernant la politique des contenus ("content policy"). Où se situe votre limite concernant la nudité ? La violence ? Les contenus graphiques explicites ? Les jurons ("profanity") ? Vos critères deviendront vos paramètres personnels. Nous vous poserons périodiquement des questions  pour améliorer cette définition de vos paramètres afin que vous n'ayez pas à chercher comment les régler. Pour ceux qui n'indiqueront pas de choix particulier, le réglage par défaut sera celui de la majorité des utilisateurs de votre zone géographique, comme pour un référendum. (…)

Avec davantage de possibilités de contrôle, des contenus ne seront supprimés que s'ils sont plus insupportables / répréhensibles ("objectionable") que l'option la plus permissive. De cette manière les contenus n'apparaîtront pas chez les utilisateurs dont les réglages personnels indiquent qu'ils ne veulent pas les voir, ou au moins qu'ils veulent les voir précédés d'un avertissement. Bien que nous continuions de bloquer certains contenus en fonction de nos standards et des lois locales, nous espérons que ce système de choix personnels et de démocratie référendaire puisse minimiser les restrictions de ce que nous pouvons partager."

Ce que vous voyez vraiment est vraiment ce que nous voulons que vous voyiez. Nous sommes, me semble-t-il, désormais entrés dans un troisième âge assumé qui est celui du WYSIWAWYTS. En plus d'être pénible à prononcer, cet acronyme signifie : What You See Is What The Algorithm Wants You To See. Ce que vous voyez est ce que l'algorithme veut que vous voyiez. Facebook – son algorithme – est dans l'incapacité totale de gérer les représentations et les seuils de tolérance individuels de plus de deux milliards d'utilisateurs sur l'ensemble des sujets qui circulent au sein de la plateforme. Cette incapacité technique se double de notre propre absence de volonté (paresse cognitive), entretenue par notre relation à l'interface qui fait que nous n'avons par ailleurs aucune envie de prendre le temps et de mobiliser l'énergie nécessaire à formaliser nos seuils de tolérance intimes à telle ou telle représentation de la nudité, de la violence, de la religion, etc.

Ce WYSIWTAWYTS ne présuppose d'ailleurs pas nécessairement d'intentionnalité politique ou militante a priori – il ne s'agit pas de refaire le débat sur la poule et l'oeuf de la bulle de filtre – mais il laisse la question de l'influence aussi ouverte que la boite de Pandore fut trop tard refermée. Et aboutit à ce qu'Antonio Casilli décrivait dans sa propre analyse de ce changement du News Feed : "nos usages vont être plus prescrits et sur-déterminés". Encore plus prescrits et encore plus sur-déterminés. 

Is It Social ? Is It Media ? Is It Social Media ? 

Donc Facebook nous dit aujourd'hui par la voix d'Adam Mosseri que ce qu'il veut que nous voyions doit se recentrer sur les publications de nos amis et de nos proches, sur ces contenus qui relèveraient de la dimension de la sphère "privée" au détriment des contenus médias et annonceurs d'une sphère supposément "publique" dans une plateforme dont l'essence même est de n'être ni réellement publique ni entièrement privée. 

Au rang des acquis sociologiques incontestables et incontestés sur la question de la viralité et de l'appropriation, on trouve l'idée que les premiers et les plus efficaces des prescripteurs sont en effet nos amis et nos pairs, loin devant, par exemple, nos parents ou "les médias" en général. C'est de ce Graal initial sur lequel il bâtit son succès que Facebook tente aujourd'hui de se rapprocher, en actionnant au passage le levier du tiroir-caisse et renvoyant médias, pages et annonceurs à leur statut de vaches à lait maintenues sous ecstasy de Like et sous perfusion de Reach et s'en allant souriantes à l'abattoir. 

Dans cette dernière annonce comme dans les affaires et les déclarations qui s'enchaînent depuis plus d'un an autour du rôle et de la place de Facebook dans nos sociétés, le réseau social est en train de procéder à un réexamen complet de ce qui constitue son véritable ADN : doit-il être "simplement" un réseau social ? Doit-il être un média – ou un méta-média – à part entière ? L'expression "social média" a-t-elle encore un sens au-delà du modèle de régie publicitaire dont elle est l'étendard ? 

4821926_700b_v1

Pour filer la métaphore du "Is it a bird is it a plane", on pourrait écrire que Zuckerberg va devoir choisir entre un Facebook modèle "Clark Kent" et un Facebook modèle "Kal-El – Superman" à tenir éloigné de la kryptonite de l'audience. 

Car au fond qu'est-ce réellement qu'un réseau social en 2018 ? Un réseau social désormais principalement organisé autour du partage et de la diffusion de contenus médias ? Dans ses travaux sur la question danah boyd avait notamment livré la définition suivante :  

"Un site de réseau social est une catégorie de site web avec des profils d'utilisateurs, des commentaires publics semi-persistants sur chaque profil, et un réseau social public naviguable ("traversable") affiché en lien direct avec chaque profil individuel."

Elle rappelait également qu'il y avait eu, en gros, trois grandes générations de réseaux sociaux : 

  1. première génération : les "friend lists", des réseaux "à plat", bi-directionnels, sans relief.
  2. seconde génération : les réseaux sociaux proprement dit, en relief, plus "épais" (relations transversales entre "amis" et non simplement "linéaires") 
  3. troisième génération (celle de Facebook) : les "médias sociaux" caractérisés à la fois par de la mise en relation mais aussi de la mise en partage via différents médias.

De son côté, Facebook a connu différentes étapes et temporalités qui lui ont permis, progressivement, d'à son tour pouvoir prétendre "organiser l'information à l'échelle de la planète", pour reprendre l'ancien Credo de Google. Une histoire qui fut marquée par les trois événements majeurs que furent l'apparition du News Feed, celle du Like, et la prise de conscience du problème des Fake News.   

2004-2006. Friend-list.

Temps 1. Moi et mes amis. Les gens parlent entre eux. Kakonomie totale et intégrale. On ne fait que parler de la pluie et du beau temps et de nos exploits culinaires (ou sexuels pour les plus téméraires). La seule dimension "média" du réseau est celle de notre propre documentation (nos photos, nos vidéos).

Septembre 2006 : invention du News Feed.

Temps 2. Les amis de mes amis sont mes amis. Les gens discutent de ce qu'ils ont vu ailleurs, dans "les médias", qui n'existent alors pour Facebook que comme une extériorité. Et surtout, comme l'expliquait très bien Vincent Glad, l'internet moderne est né :

"Il faut comprendre que Facebook, avant le news feed, n’était rien d’autre que les pages perso d’Infonie avec une petite couche sociale par-dessus. Ou pour le dire, en langage des années 2000, c’était MySpace. Pour prendre des nouvelles de ses amis, il fallait aller visiter leur page."

Avril 2009. Invention du Like.

Temps 3. Les gens parlent à l'intérieur de Facebook de ce qu'ils ont "aimé" à l'extérieur de Facebook. "Les médias" bénéficient d'une semi-intégration dans la plateforme. Qui s'accompagne, pour les utilisateurs, d'une semi-intériorisation du fait que Facebook est en train de devenir un espace médiatique qui n'est plus réservé à l'exposition de soi, et où la "profondeur" du réseau permet une stratification très dense de contenus que l'algorithme se charge de prioriser.

Temps 4. Native publishing. Les médias ont tous leur "page" Facebook, les logiques d'audience et de traffic préemptent souvent toute forme de débat sur une logique d'indépendance. Facebook est, a minima, un "méta-média" d'information avec un impact et une audience aussi colossale qu'inédite à l'échelle de l'histoire de l'humanité et des médias. Au regard de la caractérisation et des spécificités de l'interaction et des logiques de viralité dans la plateforme, il serait très étonnant que de gros bugs ne commencent pas à apparaître. Ils apparaîtront sous la forme des contenus un peu trop hâtivement "censurés" ou obfusqués par la plateforme et culmineront dans le débat sur les … 

2016 : Fake News. 

Temps 5. Plus rien de sera comme avant. Ou plus exactement, faisons comme si tout pouvait redevenir comme avant. Temps 1. Zuckerberg annonce donc qu'il va privilégier les contenus de nos proches au détriment de ceux des pages. 

L'algorithme des pauvres gens.

Il est des aristocraties contraires. Des aristocraties de la parole donnant une prime "tyrannique" aux agissants, organisées par ces autres formes d'élites éditoriales de que sont les algocraties, au milieu, je l'ai rappelé plus haut, de faits et de contextes non pas simplement calculatoires et économiques mais aussi culturels et politiques. 

A la différence du capitalisme linguistique de Google, ce ne sont pas les mots qui sont la ressource naturelle sur laquelle Faebook organise ses propres logiques spéculatives. La ressource que cible Facebook c'est l'interaction. La valeur d'un mot pour Google est directement indexée sur sa désirabilité. La valeur d'une interaction pour Facebook est directement indexée sur sa reproductibilité, sa redondance, sur le fait qu'elle puisse être dupliquée dans des contextes et sur des profils jamais identiques mais à la profondeur ou à la densité sociale similaire. Facebook est bâti sur un régime d'internalités qui vise à reproduire de l'identique (effet de polarisation de l'opinion par ailleurs admis par Zuckerberg lui-même). Google est construit sur un régime d'externalités capables d'exacerber les différences.  

Pour une raison dont finalement Mark Zuckerberg sera le seul comptable, cet énième changement du News Feed et son recentrage sur les interactions grégaires me semble être surtout un message de nature politique adressé à la communauté qu'il préside de fait, pour lui faire accroire que ces algorithmes de plus en plus critiqués et honnis sont aussi, en un sens, ceux des pauvres gens. L'algorithme des pauvres gens. 

Alors vraiment, avec le temps.

La promesse algorithmique de ce début d'année est donc l'inverse de la chanson de Ferré. Si avec le temps va, tout s'en va, que l'on oublie les passions, que l'on oublie les voix qui nous disaient tout bas les mots des pauvres gens, ne rentre pas trop tard surtout ne prend pas froid, si l'on se sent tout seul peut-être mais peinard, Zuckerberg tente de nous faire croire qu'avec l'algorithme, avec le nouvel algorithme du nouveau News Feed on n'oubliera ni les passions ni les voix qui nous disaient tout bas les mots des pauvres gens. Ne rentre pas trop tard. Surtout ne prend pas froid. Géolocalise-toi. Partage et Like moi. Avec l'algo, rien, rien ne s'en ira. 

Les promesses n'engagent que ceux qui y croient. Il est possible qu'avec le temps, justement, l'algorithme des pauvres gens mis en place par Facebook n'arrive pas à nous ôter le sentiment de se sentir floué par les années perdues. "Sur son lit de mort, personne ne se dit : "j'aurais aimé passer plus de temps sur Facebook"". Mais il est clair que c'est ce qu'il cherche à faire maintenant. 

Alors vraiment, avec le temps, on n'aime plus on verra bien.  

5a58cbf565022

"Social Decay". Extrait de la série du graphiste roumain Andrei Lacatusu.

 

Un commentaire pour “L’algorithme des pauvres gens.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Articles similaires

Commencez à saisir votre recherche ci-dessus et pressez Entrée pour rechercher. ESC pour annuler.

Retour en haut