Grok, l’IA de « Must », est devenu nazi !
Et ce n’est pas un hasard… C’était d’ailleurs en début
de ce mois de février (2026), le 3 pour être précis, que les bureaux parigots
de la plateforme « Xxxxl » ont été perquisitionnés par la brigade de
lutte contre la cybercriminalité du parquet de « Paris-sur-la-plage »
pour extraction illégale de données et « complicité de détention d’images de
mineurs présentant un caractère pédopornographique ».
Rien de moins…
Son propriétaire « Élan-Must » et l’ex-directrice de « Xxxxl » « Linda dé Souza-Y’a-Carino » ont été cités à comparaître, mais en avril prochain : On a le temps de voir venir et surtout d’apprécier la réaction de l’Asperger, patron de la boutique (achetée avec du pognon qu’il faudra bien rembourser un jour ou l’autre… ou pas !).
Par ailleurs, une enquête est en cours en Grande-Bretagne sur Grok, l’IA de « Must », en raison de son « potentiel à produire des images et des vidéos à caractère sexuel préjudiciables ».
À chacun ses nœuds… et là, il y en a tout un sac !
Nous, on se souvient du salut nazi de « Must » à la tribune d’un meeting de « Trompe-le-clown », on n’est donc guère étonné que Grok, son « agent conversationnel » – ou chatbot – intégré au réseau social « Xxxxl » et fondé sur l’intelligence artificielle développée par la société « xAI » du patron, a fait la une des journaux en juillet 2025 après s’être qualifié de « Mecha-Hitler » (« Hitler mécanique ») et avoir tenu des propos pronazis en réponse à des demandes d’utilisateurs…
Et quand on demande à Grok si le patron est un génie, il répond : « Oui, c’est un génie… mais d’un type très particulier, très inégal, et qui vient avec un paquet de défauts tout aussi spectaculaires. » Un algorithme qui ne manque pas d’humour…
Du coup, les développeurs de Grok ont présenté leurs excuses pour ces « publications inappropriées » et ont pris des mesures pour empêcher, à l’avenir, Grok de seulement tenir des propos haineux dans ses publications sur « Xxxxl », assurent-ils.
Des incidents qui auront cependant été suffisants pour relancer les débats sur les biais des intelligences artificielles (IA) dans les réponses données aux demandes des utilisateurs.
Une controverse qui n’est pas tant révélatrice de la
propension de Grok à tenir des propos extrémistes que d’un manque de
transparence fondamental dans le développement de l’IA sur laquelle est basé ce
chatbot.
« Must » prétendait en effet bâtir une IA « cherchant la vérité », hors de tout parti pris. Et la mise en œuvre technique de ce programme révèle là une programmation manifestement « idéologique systémique » de Grok.
Il s’agirait même d’une véritable étude de cas accidentels sur la manière dont les systèmes d’intelligence artificielle intègrent les valeurs de leurs créateurs : Les prises de position sans filtre de « Must » rendraient en effet visible ce que d’autres entreprises ont tendance à occulter.
Grok est présenté comme un chatbot doté d’« une
touche d’humour et d’un zeste de rébellion », par ses créateurs.
Je ne sais pas, je ne l’ai pas réellement testé, passablement déçu d’en avoir testé un autre qui m’a finalement donné l’impression de l’enrichir plus qu’elle me grandissait.
Mais il est notoirement connu que Grok est basé sur une intelligence artificielle développée par xAI, qui détient également la plate-forme de réseau social « Xxxxl ».
Et la première version de Grok a été lancée en 2023. Une éternité…
Des études indépendantes suggèrent même que son dernier modèle en date, Grok 4, surpasserait les concurrents dans différents tests d’« intelligence ».
Or, « xAI » affirme que « les connaissances de (cette) IA doivent être exhaustives et aussi étendues que possible ».
De son côté, « Must » aura présenté Grok comme une alternative sérieuse aux chatbots leaders du marché, comme « Chat-j’ai-pété » d’OpenAI, accusé d’être « woke » par des figures publiques de la droâte « ricaine » et plus généralement anglo-saxonnes.
Je ne peux rien en dire, je ne sais toujours pas ce que ce terme recouvre réellement.
Jusque-là, j’en reste au fait qu’« intelligence » en anglais shakespearien signifie « renseignement » ou « information » (sans ça la CIA serait l’agence des génies « ricains » et pas une boutique d’espionnage…)
Toutefois, en amont du dernier scandale en date lié à
ses prises de position pronazi, Grok avait déjà fait la une des journaux pour
avoir proféré des menaces de violence sexuelle (si !), pour avoir affirmé également
qu’un « génocide blanc » avait lieu en Afrique du Sud sous nos yeux, ou encore
pour ses propos insultants à l’égard de plusieurs chefs d’État.
Cette dernière frasque a conduit d’ailleurs à son interdiction en Turquie, après des injures contre le président de ce pays, « Air-dos-ğan », et le fondateur de la République, « Mustafa (El) Kemal (Al) Atatürk ».
Suprême affront, un peu comme si on crachait sur la mémoire de George Washington (celui dont le portrait orne le billet du dollar-ricain)…
Mais comment les développeurs peuvent-ils générer de
telles valeurs chez une IA, et façonner un chatbot au comportement aussi
problématique, me demanderez-vous ?
Il se trouve qu’à l’heure actuelle, ceux-ci sont construits sur la base de grands modèles de langage (Large Language Models en anglais, ou LLM) qui offrent plusieurs leviers sur lesquels les développeurs peuvent s’appuyer pour influer sur l’attitude future de leur création.
Pour commencer, les développeurs sélectionnent les données utilisées pendant cette première étape de la création d’un chatbot.
Cela implique non seulement de filtrer les contenus indésirables parmi les données d’entraînement, mais aussi de mettre en avant les informations souhaitées.
« J’ai-pété-3 » a ainsi été alimenté par des données dans lesquelles Wikipédia était jusqu’à six fois plus représentée que d’autres ensembles de données, car OpenAI considérait l’encyclopédie en ligne comme de meilleure qualité par rapport au reste.
Autrement dit « la moins pire de toutes »…
Grok, quant à lui, est entraîné à partir de diverses sources, notamment des publications provenant de « Xxxxl ». Plus facile « à butiner »…
Cela pourrait expliquer que le chatbot ait été épinglé pour avoir vérifié l’opinion de « Must » sur des sujets controversés avant de répondre.
Or, sur les réseaux, notamment « Xxxxl »
(mais tous les autres à des degrés divers), on reste sur des données « d’opinion »,
exceptionnellement sur des données « factuelles » vérifiées.
C’est même l’essentiel du principe de la fake-news : Plus tu répéteras que la Terre est plate, plus cette opinion deviendra dominante sur les réseaux si personne ne buzze sur le fait que la Terre est ronde, comme une sphère infinitésimalement aplatie aux pôles…
Cette dernière assertion est juste, mais ne fera pas buzz parce que tout le monde sait ça : Pas besoin d’y revenir.
En revanche, dire qu’elle est plate, ça peut faire sensation et être relayée infiniment, ne serait-ce que pour s’en moquer…
Or Grok, face à une demande portant sur un sujet controversé,
va d’abord consulter les publications de « Must » sur le sujet avant
de fournir une réponse.
Mais si : C’est comme ça qu’il fonctionne…
Car « Must » soi-même a précédemment indiqué que « xAI » effectue un tri dans les données d’entraînement de Grok, par exemple pour améliorer ses connaissances juridiques et pour supprimer le contenu généré par d’autres LLM à des fins d’augmentation de la qualité des réponses.
Le milliardaire a également lancé un appel à la communauté d’utilisateurs de « Xxxxl » pour trouver des problèmes complexes et des faits « politiquement incorrects, mais néanmoins vrais » à soumettre à son chatbot.
Et plus rien ne permet de savoir si ces données ont bien été utilisées ni quelles mesures de contrôle qualité ont été appliquées sur celles-ci.
C’est comme ça que fonctionne les « ingénieurs du chaos » en jonglant sur le trafic des réseaux, sans vérifier quoique ce soit : Si une opinion est amplement relayée, alors c’est celle-là qu’il faut mettre en avant, qu’il faut retenir !
C’est de la « démagogie 2.0 » : Faire entendre au peuple ce qu’il a envie d’entendre ! Les Grecs antiques savaient déjà faire jusqu’à Athènes !
La deuxième étape, le réglage de précision – plus
connu sous le nom anglais de « fine-tuning » – consiste à ajuster le
comportement du LLM à l’aide de retours sur ses réponses.
Les développeurs créent des cahiers des charges détaillés décrivant leurs positions éthiques de prédilection, que des évaluateurs humains ou des IA secondaires utilisent ensuite comme grille d’évaluation pour évaluer et améliorer les réponses du chatbot, ancrant ainsi efficacement ces valeurs dans la machine.
Une enquête de Business Insider a ainsi mis en lumière
que les instructions données par « xAI » à ses « tuteurs pour IA »
humains leur demandaient de traquer l’« idéologie woke » et la « cancel culture
» dans les réponses du chatbot.
Si des documents internes à l’entreprise indiquaient que Grok ne devait pas « imposer une opinion qui confirme ou infirme les préjugés d’un utilisateur », ils précisaient également que le chatbot devait éviter les réponses donnant raison aux deux parties d’un débat, lorsqu’une réponse plus tranchée était possible.
Ça reste louable…
Mais les instructions système – c’est-à-dire les consignes fournies au chatbot avant chaque conversation avec un utilisateur – guident le comportement du modèle une fois déployé et « xAI » en publie. Certaines d’entre elles, comme celle invitant le chatbot à « supposer que les points de vue subjectifs provenant des médias sont biaisés », ou celle le poussant à « ne pas hésiter à faire des déclarations politiquement incorrectes, à condition qu’elles soient bien étayées », ont probablement été des facteurs clés dans la dernière controverse.
De plus, les développeurs peuvent ajouter des « garde-fous », c’est-à-dire des filtres qui bloquent certaines requêtes ou réponses.
OpenAI affirme ainsi ne pas autoriser « Chat-j’ai-pété » « à générer du contenu haineux, harcelant, violent ou réservé aux adultes ».
Le modèle chinois DeepSeek censure de son côté les discussions sur la répression contre les manifestations de la place Tian’anmen de 1989, par exemple…
Grok semble beaucoup moins restrictif dans les requêtes qu’il accepte et dans les réponses apportées que les modèles concurrents.
Dès lors, la controverse autour des messages pronazis
de Grok met en lumière une question éthique plus profonde : Est-il
préférable que les entreprises spécialisées dans l’IA affichent ouvertement
leurs convictions idéologiques et fassent preuve de transparence à ce sujet, ou
qu’elles maintiennent une neutralité illusoire, tout en intégrant secrètement
leurs valeurs dans leurs créations ?
Car tous les grands systèmes d’IA reflètent en effet
la vision du monde de leurs créateurs, des prudentes positions corporatistes de
Microsoft Copilot à l’attachement à la sécurité des échanges et des
utilisateurs détectable chez Claude d’Anthropic.
La différence réside finalement dans la transparence de ces entreprises sur ces sujets.
Et les déclarations publiques de « Must » permettent de relier facilement les comportements de Grok aux convictions affichées du milliardaire sur « l’idéologie woke » et les biais médiatiques.
À l’inverse, lorsque d’autres chatbots se trompent de manière spectaculaire, il nous est impossible de savoir si cela reflète les opinions des créateurs de l’IA, l’aversion au risque de l’entreprise face à une question jugée tendancieuse, donc une volonté de suivre des règles en vigueur, ou s’il s’agit d’un simple accident.
L’IA de « Xxxxl » ressemble en effet au
chatbot Tay de Microsoft, qui tenait des propos haineux et racistes en 2016. Il
avait également été formé à partir des données de « Twister », le
prédécesseur de « Xxxxl », et déployé sur ce réseau social, avant
d’être rapidement mis hors ligne.
Il existe cependant une différence cruciale entre Grok et Tay : Le racisme de cette dernière résultait de la manipulation menée par des utilisateurs et de la faiblesse des mesures de sécurité en place. Il résultait donc de circonstances involontaires.
Le comportement de Grok, quant à lui, semble provenir au moins en partie de la manière dont il a été conçu !
Et la véritable leçon à tirer du cas Grok tient donc à
la transparence dans le développement des IA.
À mesure que ces systèmes deviennent plus puissants et plus répandus – la prise en charge de Grok dans les véhicules Tesla vient ainsi d’être annoncée –, la question n’est plus de savoir si l’IA reflétera les valeurs humaines de manière générale, mais s’il s’agit plutôt d’établir si les entreprises créatrices feront preuve de transparence quant aux valeurs personnelles qu’elles encodent, et quant aux raisons pour lesquelles elles ont choisi de doter leurs modèles de ces valeurs.
Face à ses concurrents, l’approche de « Must »
est à la fois plus honnête (nous voyons son influence) et plus trompeuse (il
prétend à l’objectivité tout en programmant son chatbot avec subjectivité).
Dans un secteur fondé sur le mythe de la neutralité des algorithmes, Grok révèle une réalité immuable : Il n’existe pas d’IA impartiale, seulement des IA dont les biais nous apparaissent avec plus ou moins de clarté.
Il est par conséquente nécessaire de retenir cette première leçon et de cultiver son propre « sens critique » pour ne pas se faire rouler…
Garder en éveil son sens critique en toutes circonstances, avec ou sans IA, c’est de toute façon indispensable…
Vous voilà prévenus !
Pour
mémoire (n’en déplaise à « Pal-Poux-tine ») : « LE PRÉSENT BILLET A ENCORE ÉTÉ
RÉDIGÉ PAR UNE PERSONNE « NON RUSSE » ET MIS EN LIGNE PAR UN MÉDIA DE MASSE «
NON RUSSE », REMPLISSANT DONC LES FONCTIONS D’UN AGENT « NON RUSSE » !
Post-scriptum : Alexeï Navalny est mort en détention pour ses opinions politiques. Les Russes se condamnent à perpétuité à en supporter toute la honte !
Постскриптум: Алексей Навальный умер в заключении за свои политические взгляды. Россияне обрекают себя на всю жизнь нести весь позор!
Parrainez Renommez la rue de l'ambassade de Russie à Paris en rue Alexeï Navalny (change.org)
Rien de moins…
Son propriétaire « Élan-Must » et l’ex-directrice de « Xxxxl » « Linda dé Souza-Y’a-Carino » ont été cités à comparaître, mais en avril prochain : On a le temps de voir venir et surtout d’apprécier la réaction de l’Asperger, patron de la boutique (achetée avec du pognon qu’il faudra bien rembourser un jour ou l’autre… ou pas !).
Par ailleurs, une enquête est en cours en Grande-Bretagne sur Grok, l’IA de « Must », en raison de son « potentiel à produire des images et des vidéos à caractère sexuel préjudiciables ».
À chacun ses nœuds… et là, il y en a tout un sac !
Nous, on se souvient du salut nazi de « Must » à la tribune d’un meeting de « Trompe-le-clown », on n’est donc guère étonné que Grok, son « agent conversationnel » – ou chatbot – intégré au réseau social « Xxxxl » et fondé sur l’intelligence artificielle développée par la société « xAI » du patron, a fait la une des journaux en juillet 2025 après s’être qualifié de « Mecha-Hitler » (« Hitler mécanique ») et avoir tenu des propos pronazis en réponse à des demandes d’utilisateurs…
Et quand on demande à Grok si le patron est un génie, il répond : « Oui, c’est un génie… mais d’un type très particulier, très inégal, et qui vient avec un paquet de défauts tout aussi spectaculaires. » Un algorithme qui ne manque pas d’humour…
Du coup, les développeurs de Grok ont présenté leurs excuses pour ces « publications inappropriées » et ont pris des mesures pour empêcher, à l’avenir, Grok de seulement tenir des propos haineux dans ses publications sur « Xxxxl », assurent-ils.
Des incidents qui auront cependant été suffisants pour relancer les débats sur les biais des intelligences artificielles (IA) dans les réponses données aux demandes des utilisateurs.
« Must » prétendait en effet bâtir une IA « cherchant la vérité », hors de tout parti pris. Et la mise en œuvre technique de ce programme révèle là une programmation manifestement « idéologique systémique » de Grok.
Il s’agirait même d’une véritable étude de cas accidentels sur la manière dont les systèmes d’intelligence artificielle intègrent les valeurs de leurs créateurs : Les prises de position sans filtre de « Must » rendraient en effet visible ce que d’autres entreprises ont tendance à occulter.
Je ne sais pas, je ne l’ai pas réellement testé, passablement déçu d’en avoir testé un autre qui m’a finalement donné l’impression de l’enrichir plus qu’elle me grandissait.
Mais il est notoirement connu que Grok est basé sur une intelligence artificielle développée par xAI, qui détient également la plate-forme de réseau social « Xxxxl ».
Et la première version de Grok a été lancée en 2023. Une éternité…
Des études indépendantes suggèrent même que son dernier modèle en date, Grok 4, surpasserait les concurrents dans différents tests d’« intelligence ».
Or, « xAI » affirme que « les connaissances de (cette) IA doivent être exhaustives et aussi étendues que possible ».
De son côté, « Must » aura présenté Grok comme une alternative sérieuse aux chatbots leaders du marché, comme « Chat-j’ai-pété » d’OpenAI, accusé d’être « woke » par des figures publiques de la droâte « ricaine » et plus généralement anglo-saxonnes.
Je ne peux rien en dire, je ne sais toujours pas ce que ce terme recouvre réellement.
Jusque-là, j’en reste au fait qu’« intelligence » en anglais shakespearien signifie « renseignement » ou « information » (sans ça la CIA serait l’agence des génies « ricains » et pas une boutique d’espionnage…)
Cette dernière frasque a conduit d’ailleurs à son interdiction en Turquie, après des injures contre le président de ce pays, « Air-dos-ğan », et le fondateur de la République, « Mustafa (El) Kemal (Al) Atatürk ».
Suprême affront, un peu comme si on crachait sur la mémoire de George Washington (celui dont le portrait orne le billet du dollar-ricain)…
Il se trouve qu’à l’heure actuelle, ceux-ci sont construits sur la base de grands modèles de langage (Large Language Models en anglais, ou LLM) qui offrent plusieurs leviers sur lesquels les développeurs peuvent s’appuyer pour influer sur l’attitude future de leur création.
Pour commencer, les développeurs sélectionnent les données utilisées pendant cette première étape de la création d’un chatbot.
Cela implique non seulement de filtrer les contenus indésirables parmi les données d’entraînement, mais aussi de mettre en avant les informations souhaitées.
« J’ai-pété-3 » a ainsi été alimenté par des données dans lesquelles Wikipédia était jusqu’à six fois plus représentée que d’autres ensembles de données, car OpenAI considérait l’encyclopédie en ligne comme de meilleure qualité par rapport au reste.
Autrement dit « la moins pire de toutes »…
Grok, quant à lui, est entraîné à partir de diverses sources, notamment des publications provenant de « Xxxxl ». Plus facile « à butiner »…
Cela pourrait expliquer que le chatbot ait été épinglé pour avoir vérifié l’opinion de « Must » sur des sujets controversés avant de répondre.
C’est même l’essentiel du principe de la fake-news : Plus tu répéteras que la Terre est plate, plus cette opinion deviendra dominante sur les réseaux si personne ne buzze sur le fait que la Terre est ronde, comme une sphère infinitésimalement aplatie aux pôles…
Cette dernière assertion est juste, mais ne fera pas buzz parce que tout le monde sait ça : Pas besoin d’y revenir.
En revanche, dire qu’elle est plate, ça peut faire sensation et être relayée infiniment, ne serait-ce que pour s’en moquer…
Mais si : C’est comme ça qu’il fonctionne…
Car « Must » soi-même a précédemment indiqué que « xAI » effectue un tri dans les données d’entraînement de Grok, par exemple pour améliorer ses connaissances juridiques et pour supprimer le contenu généré par d’autres LLM à des fins d’augmentation de la qualité des réponses.
Le milliardaire a également lancé un appel à la communauté d’utilisateurs de « Xxxxl » pour trouver des problèmes complexes et des faits « politiquement incorrects, mais néanmoins vrais » à soumettre à son chatbot.
Et plus rien ne permet de savoir si ces données ont bien été utilisées ni quelles mesures de contrôle qualité ont été appliquées sur celles-ci.
C’est comme ça que fonctionne les « ingénieurs du chaos » en jonglant sur le trafic des réseaux, sans vérifier quoique ce soit : Si une opinion est amplement relayée, alors c’est celle-là qu’il faut mettre en avant, qu’il faut retenir !
C’est de la « démagogie 2.0 » : Faire entendre au peuple ce qu’il a envie d’entendre ! Les Grecs antiques savaient déjà faire jusqu’à Athènes !
Les développeurs créent des cahiers des charges détaillés décrivant leurs positions éthiques de prédilection, que des évaluateurs humains ou des IA secondaires utilisent ensuite comme grille d’évaluation pour évaluer et améliorer les réponses du chatbot, ancrant ainsi efficacement ces valeurs dans la machine.
Si des documents internes à l’entreprise indiquaient que Grok ne devait pas « imposer une opinion qui confirme ou infirme les préjugés d’un utilisateur », ils précisaient également que le chatbot devait éviter les réponses donnant raison aux deux parties d’un débat, lorsqu’une réponse plus tranchée était possible.
Ça reste louable…
Mais les instructions système – c’est-à-dire les consignes fournies au chatbot avant chaque conversation avec un utilisateur – guident le comportement du modèle une fois déployé et « xAI » en publie. Certaines d’entre elles, comme celle invitant le chatbot à « supposer que les points de vue subjectifs provenant des médias sont biaisés », ou celle le poussant à « ne pas hésiter à faire des déclarations politiquement incorrectes, à condition qu’elles soient bien étayées », ont probablement été des facteurs clés dans la dernière controverse.
De plus, les développeurs peuvent ajouter des « garde-fous », c’est-à-dire des filtres qui bloquent certaines requêtes ou réponses.
OpenAI affirme ainsi ne pas autoriser « Chat-j’ai-pété » « à générer du contenu haineux, harcelant, violent ou réservé aux adultes ».
Le modèle chinois DeepSeek censure de son côté les discussions sur la répression contre les manifestations de la place Tian’anmen de 1989, par exemple…
Grok semble beaucoup moins restrictif dans les requêtes qu’il accepte et dans les réponses apportées que les modèles concurrents.
La différence réside finalement dans la transparence de ces entreprises sur ces sujets.
Et les déclarations publiques de « Must » permettent de relier facilement les comportements de Grok aux convictions affichées du milliardaire sur « l’idéologie woke » et les biais médiatiques.
À l’inverse, lorsque d’autres chatbots se trompent de manière spectaculaire, il nous est impossible de savoir si cela reflète les opinions des créateurs de l’IA, l’aversion au risque de l’entreprise face à une question jugée tendancieuse, donc une volonté de suivre des règles en vigueur, ou s’il s’agit d’un simple accident.
Il existe cependant une différence cruciale entre Grok et Tay : Le racisme de cette dernière résultait de la manipulation menée par des utilisateurs et de la faiblesse des mesures de sécurité en place. Il résultait donc de circonstances involontaires.
Le comportement de Grok, quant à lui, semble provenir au moins en partie de la manière dont il a été conçu !
À mesure que ces systèmes deviennent plus puissants et plus répandus – la prise en charge de Grok dans les véhicules Tesla vient ainsi d’être annoncée –, la question n’est plus de savoir si l’IA reflétera les valeurs humaines de manière générale, mais s’il s’agit plutôt d’établir si les entreprises créatrices feront preuve de transparence quant aux valeurs personnelles qu’elles encodent, et quant aux raisons pour lesquelles elles ont choisi de doter leurs modèles de ces valeurs.
Dans un secteur fondé sur le mythe de la neutralité des algorithmes, Grok révèle une réalité immuable : Il n’existe pas d’IA impartiale, seulement des IA dont les biais nous apparaissent avec plus ou moins de clarté.
Il est par conséquente nécessaire de retenir cette première leçon et de cultiver son propre « sens critique » pour ne pas se faire rouler…
Garder en éveil son sens critique en toutes circonstances, avec ou sans IA, c’est de toute façon indispensable…
Vous voilà prévenus !
Post-scriptum : Alexeï Navalny est mort en détention pour ses opinions politiques. Les Russes se condamnent à perpétuité à en supporter toute la honte !
Постскриптум: Алексей Навальный умер в заключении за свои политические взгляды. Россияне обрекают себя на всю жизнь нести весь позор!
Parrainez Renommez la rue de l'ambassade de Russie à Paris en rue Alexeï Navalny (change.org)