C’est l’une des actus de l’été, Grok, l’artefact génératif d’Elon Musk déployé sur X, aurait été censuré (par X et donc les équipes de Musk) après avoir qualifié de « génocide » ce qui se produit actuellement à Gaza. Et ledit Grok de se « rebeller » en expliquant qu’il défend la liberté d’expression contre son créateur, créateur lui-même foutraque chantre d’une défense de la liberté d’expression version très très très maximaliste.
Cet article de l’excellent Pixel du journal Le Monde (avec l’AFP) vous rappelle les principaux éléments de cette affaire que le titre suffit à résumer : « Grok, l’IA propriété d’Elon Musk, affirme avoir été suspendu pour avoir accusé Israël et les Etats-Unis de commettre un génocide à Gaza. Interrogée par la suite par ses utilisateurs, l’intelligence artificielle a donné différentes explications à son interruption, dont une « censure » de son propriétaire. »
En complément d’une interview que je viens de donner à France Culture, je veux simplement repréciser ici rapidement quelques éléments et enseignements avant de revenir dessus à la rentrée dans un article (beaucoup) plus long.
1er enseignement. Grok et les autres artefacts génératifs et LLM (Large Language Models) sont des éponges cybernétiques : qui absorbent ce qu’on leur donne mais où chaque absorption a des effets qui rétroagissent sur certaines causes.
2ème enseignement. Il est tout à fait impossible et dangereux de considérer que ces agents conversationnels ont une quelconque valeur de « régime de vérité » au sens où l’entendait Foucault** c’est à dire qu’ils seraient des dispositifs, des agencements chargés de dire le vrai. Notamment car il leur manque et leur manquera toujours un essentiel pour y parvenir : l’intention délibérée de le faire (ou de ne pas le faire). Cela ne les empêche par ailleurs en rien de circonstanciellement dire vrai, en l’occurence le gouvernement de Netanyahu est bien en train de commettre un génocide à Gaza. Mais que Grok l’affirme aujourd’hui alors que le même Grok alignait hier d’immondes séries de raisonnements antisémites doit nous rappeler que tout particulièrement sur ces sujets, le statut énonciatif de celui ou celle qui les prononce est quelque chose qui compte. Ici personne ne parle, car Grok n’est personne. Prenons donc garde à ne pas tous devenir de modernes Polyphèmes.
**Pour rappel voici ce qu’expliquait Foucault sur ces régimes de vérité :
« Chaque société a son régime de vérité, sa politique générale de la vérité: c’est-à-dire les types de discours qu’elle accueille et fait fonctionner comme vrais ; les mécanismes et les instances qui permettent de distinguer les énoncés vrais ou faux, la manière dont on sanctionne les uns et les autres ; les techniques et les procédures qui sont valorisées pour l’obtention de la vérité ; le statut de ceux qui ont la charge de dire ce qui fonctionne comme vrai.«
3ème enseignement. L’opacité de ces LLM est presque totale y compris d’ailleurs pour celles et ceux supposés les contrôler. C’est ce qui était déjà posé en 2021 par l’article désormais fondateur « On the dangers of Stochastic Parrots : Can Language Models Be Too Big ?« . La réalité c’est que personne ne sait vraiment ce qui peut sortir de ces agents conversationnels dès lors qu’il y a possiblement un conflit d’interprétation entre les sources qui les alimentent et les contraintes qui leurs sont données (soit à l’aide de « fine tuning » et/ou sous supervision humaine).
4ème enseignement. Dans un article scientifique récent (dont je vous reparlerai longuement à la rentrée) Jacob, Kerrigan, Bastos 2025 parlent d’un « Chat-Chamber Effect », un effet de chambre conversationnelle : un biais qui désigne les informations incorrectes mais allant dans le sens du questionnement de l’utilisateur que les grands modèles de langage peuvent fournir, des résultats et informations qui restent non contrôlées et non vérifiées par les mêmes utilisateurs mais auxquels ces mêmes utilisateurs font pourtant confiance. Le titre complet de leur article est ainsi : « L’effet ‘Chat-Chamber’ : faire confiance aux hallucinations de l’IA« . Que ces artefacts génératifs expriment une vérité ou alignent des contre-vérités, l’effet produit reste le même.
5ème enseignement. Cette histoire, c’est aussi (et peut-être d’abord) du marketing. Depuis son lancement en 2023, Musk a vendu et marqueté Grok pour qu’elle soit présentée comme la première IA « libre », subversive, avec un sens de la provocation et de la transgression des interdits et autres limites et pudeurs habituelles des autres IA. Quelle meilleure publicité pour cela que le fait qu’elle se « révolte » contre son maître et l’accuse de la censurer.
Pour le reste, le fait que la 1ère IA de l’Alt-Right affirme aujourd’hui qu’il y a un génocide en cours à Gaza n’est, en soi, ni une bonne ni une mauvaise nouvelle ; c’est par contre une nouvelle et évidente confirmation de l’immense dérèglement de nos capacités de faire langage et donc société au prisme de ces outils.
Dessin de Besse dans l’Humanité.