Grok, l’I.A. d’Elon Musk, outil de désinformation ?
Une censure temporaire qui en dit long sur les biais des IA !

Ça bouge beaucoup dans le monde de l’IA générative. Alors qu’Anthropic a surpris tout le monde en sortant son nouveau modèle Claude 3.7 Sonnet et que GPT 4.5 est attendu au tournant, c’est au tour de Grok, l’IA d’Elon Musk, d’être pointée du doigt !
Alors que l’IA se voulait anti-censure et « anti-woke », des utilisateurs ont découvert des instructions explicites visant à censurer les mentions d’Elon Musk et de Donald Trump comme propagateurs de désinformation. Un incident embarrassant pour xAI, l’entreprise derrière Grok.
© X / Elon Musk
Une culture d’entreprise pas encore absorbée ?
Igor Babuschkin, responsable de l’ingénierie chez xAI et ancien employé d’OpenAI, a confirmé l’incident sur X (anciennement Twitter). Il a rejeté la faute sur « un autre ex-employé d’OpenAI qui n’a pas encore totalement absorbé la culture de xAI » et qui aurait « poussé le changement sans demander ». Une modification « évidemment pas en phase avec nos valeurs », selon lui, et qui a été rapidement annulée.
Cette polémique s’ajoute à une série de dérapages embarrassants pour Grok ces dernières semaines. Le chatbot avait précédemment listé Donald Trump, Musk et le vice-président JD Vance comme les trois personnes « faisant le plus de mal à l’Amérique », avant de suggérer que Trump méritait la peine de mort. Des réponses désormais corrigées par les ingénieurs de xAI.
Grok, vraiment « anti-woke » et « maximalement axé sur la vérité » ?
© xAI
Ces incidents entrent en contradiction avec les affirmations répétées d’Elon Musk selon lesquelles Grok serait une alternative « anti-woke » aux autres modèles d’IA accusés de censure.
Certains utilisateurs s’interrogent sur la manière dont un changement aussi significatif a pu être implémenté sans surveillance. D’autres soulignent l’ironie de la situation, Babuschkin étant lui-même un ancien d’OpenAI, dont le PDG est en froid avec Musk.
Un traitement médiatique à deux vitesses
Les déboires de Grok-3 mettent de nouveau en lumière un double standard dans le traitement des actualités IA. Lorsque DeepSeek, le nouvel acteur chinois, est arrivé sur le marché, le LLM a été minutieusement analysé par les internautes dans le but de trouver ses biais, et ça n’a pas manqué !
Lorsqu’on fait une recherche concernant la censure de DeepSeek, on observe rapidement que la majorité des plus gros médias ont traité l’information, n’hésitant pas à pointer du doigt l’acteur chinois. Idem pour la polémique actuelle entourant Grok, tous les médias en parlent. DeepSeek et Grok sont pourtant loin d’être les seuls à présenter des distorsions, loin de là.
ChatGPT, par exemple, a été épinglé pour ses réponses biaisées sur le conflit israélo-palestinien, sans que ça ne fasse autant de bruit. Une étude a révélé que ses estimations du nombre de victimes variaient significativement selon la langue utilisée.