Une découverte qui fait débat
Des utilisateurs ont récemment découvert que les dernières versions de ChatGPT intègrent Grokipedia, l'encyclopédie lancée par Elon Musk via xAI, comme source d'information. Cette révélation soulève des questions fondamentales sur la neutralité et la fiabilité des systèmes d'IA conversationnelle.
L'intégration n'a pas été annoncée officiellement par OpenAI. Ce sont des tests comparatifs menés par des chercheurs indépendants qui ont mis en évidence des réponses directement issues de la plateforme de Musk, parfois verbatim. La communauté tech s'interroge légitimement sur les critères qui ont présidé à ce choix.
Grokipedia : une encyclopédie pas comme les autres
Contrairement à Wikipédia, Grokipedia ne repose pas sur un modèle collaboratif ouvert avec des règles éditoriales strictes. La plateforme, alimentée par les données de X (ex-Twitter) et les modèles Grok, propose une approche que ses détracteurs qualifient de "post-vérité assumée".
Le problème n'est pas tant l'existence de Grokipedia que son utilisation comme source primaire par un modèle aussi répandu que ChatGPT. Quand un outil utilisé par des centaines de millions de personnes puise dans une base dont la neutralité est contestée, les implications dépassent le simple débat technique.
Les risques pour l'écosystème informationnel
La contamination croisée représente le danger le plus immédiat. Si ChatGPT cite Grokipedia, et que Grok cite des contenus générés par ChatGPT, nous entrons dans une boucle de renforcement où les biais se multiplient sans vérification externe.
La concentration des sources pose également problème. Les LLMs dépendent déjà massivement de quelques datasets dominants. Ajouter une source contrôlée par un acteur unique et politiquement engagé fragilise davantage la diversité informationnelle.
L'opacité des intégrations inquiète les experts. Qu'OpenAI n'ait pas communiqué sur cette intégration suggère soit une négligence, soit une stratégie délibérée d'évitement. Dans les deux cas, la confiance des utilisateurs en prend un coup.
Ce que cela révèle sur l'industrie
Cette situation illustre un problème structurel de l'IA générative : la course aux données fraîches. Les modèles de langage ont besoin de contenu actualisé pour rester pertinents. Face à la fermeture progressive des API (Reddit, Twitter), les éditeurs cherchent des partenariats, parfois au détriment de la qualité.
OpenAI a multiplié les accords ces derniers mois : Associated Press, Le Monde, Axel Springer. L'hypothèse d'un arrangement avec xAI, même informel, n'est plus fantaisiste. Les frontières entre concurrents deviennent poreuses quand l'accès aux données prime sur tout.
Que peuvent faire les utilisateurs ?
La première réponse est la vigilance. Demander systématiquement les sources à ChatGPT, croiser les informations, ne pas considérer les réponses comme parole d'évangile. Des réflexes que le confort des assistants IA tend à faire oublier.
Des outils de vérification émergent également. Certaines extensions permettent de tracer l'origine probable des informations générées. C'est imparfait, mais c'est un début.
Enfin, le débat réglementaire s'impose. L'AI Act européen exige une transparence sur les données d'entraînement. L'intégration de sources en temps réel devrait logiquement tomber sous le même régime. Les régulateurs ont une carte à jouer.
Conclusion
L'affaire ChatGPT-Grokipedia n'est pas un simple bug technique. C'est le symptôme d'une industrie où la quête de données prime sur la rigueur éditoriale. Les utilisateurs méritent de savoir d'où viennent les informations qu'ils consomment. OpenAI doit clarifier sa position, et vite.
