Elon Musk défie Wikipedia : naissance de Grokipedia, l’encyclopédie réinventée par l’IA

0
112

Quelques années après avoir repris Twitter — désormais rebaptisé X — Elon Musk poursuit son ambition de refaçonner l’écosystème mondial de l’information. Lundi, le milliardaire a lancé Grokipedia, une encyclopédie en ligne qui se présente comme une alternative directe à Wikipedia, avec l’objectif affiché de défendre « la vérité, toute la vérité et rien que la vérité ». Dans cette nouvelle plateforme, ce ne sont plus principalement les humains qui rédigent les articles, mais Grok, le modèle d’intelligence artificielle développé par xAI, l’entreprise de Musk.

Grokipedia reprend les codes visuels de Wikipedia : sobriété graphique, mise en page épurée, système de références imitant celui de sa consœur. Toutefois, l’ampleur est bien différente. Alors que Wikipedia revendique plus de sept millions d’articles, Grokipedia n’en affiche pour l’instant qu’un peu plus de 800 000. L’ouverture à l’édition humaine demeure obscure : si les internautes peuvent signaler les erreurs, on ignore jusqu’où ils peuvent réellement intervenir dans le contenu généré par l’IA.

Au-delà de l’outil, c’est la vision qui interroge. Elon Musk a longuement accusé Wikipedia d’être un espace « contrôlé par des activistes d’extrême gauche ». Grokipedia, selon lui, vise à corriger ce qu’il considère comme un biais idéologique, en donnant une place centrale au doute méthodologique et à ce qu’il nomme « l’intégrité cognitive ». Il a même annoncé qu’il souhaitait graver l’encyclopédie « dans un oxyde stable en orbite, sur la Lune et sur Mars » afin de conserver la connaissance pour l’avenir.

Or, dès les premières heures, les divergences entre les deux encyclopédies ont fait émerger une inquiétude : Grokipedia ne corrigerait pas un biais — elle en introduirait un autre. Les articles qui concernent Elon Musk en sont un exemple flagrant. Wikipedia le décrit comme une figure polarisante, responsable de décisions et de propos largement critiqués, notamment en matière de désinformation scientifique ou de propos discriminatoires. Grokipedia préfère mettre en avant son « influence dans les débats sur le progrès technologique, le déclin démographique et les biais institutionnels », sans citer de sources précises appuyant ces affirmations.

Même glissement dans l’article consacré à George Floyd. Là où Wikipedia rappelle immédiatement le fait établi par la justice — un meurtre commis par un policier blanc — Grokipedia insiste d’entrée sur le passé judiciaire de Floyd et sur la présence de drogues dans son organisme lors de son décès. Les sources citées ne soutiennent parfois pas les assertions formulées, ce qui suscite des interrogations sur la rigueur méthodologique d’une plateforme pourtant fondée sur une quête proclamée de « vérité ». Interpellée, l’adresse de presse de xAI a répondu d’un unique message automatique : « Legacy Media Lies » (« Les médias traditionnels mentent »).

Musk affirme que l’encyclopédie évoluera au rythme des progrès de Grok. Une manière de dire que l’ambition dépasse la simple imitation : façonner un nouveau récit du monde, filtré par une IA conçue pour épouser une idéologie particulière. Le danger n’est pas technologique — il est épistémologique. Une encyclopédie n’est pas seulement une collection de données ; elle est un champ de bataille où se joue la définition du réel.

Sous couvert d’émanciper la connaissance des prétendues élites éditoriales, Grokipedia pourrait devenir un instrument supplémentaire d’influence et de pouvoir. Le futur de l’information sera-t-il confié aux machines… ou aux convictions de ceux qui les programment ? La partie est ouverte, et elle nous concerne tous.

Sources :

Hadas Gold, CNN (publication du 28 octobre 2025).

Données publiques disponibles sur Wikipedia, Grokipedia et X.

Soutenez TekTek et restez connectés à la technologie en Haïti :

Twitter/X : @iam_tektek

Threads : @iam_tektek

Instagram : @iam_tektek

Chaîne WhatsApp TekTek : https://whatsapp.com/channel/0029VaCvXaT9Bb61rhQVdm1I

Partager

Comments are closed.