ChatGPT devient 30 % moins « progressiste » : l’intelligence artificielle sous influence politique ?

0
1343

OpenAI vient d’annoncer que la dernière version de son modèle, GPT-5, aurait réduit ses biais politiques de 30 % par rapport à GPT-4. Une nouvelle qui relance le débat sur la neutralité idéologique de l’intelligence artificielle… et sur l’influence grandissante de la politique américaine, notamment celle de Donald Trump, sur les technologies mondiales.

Depuis son lancement en 2022, ChatGPT a souvent été accusé d’avoir une orientation « progressiste ». Des chercheurs, notamment à l’Université de Stuttgart, estiment que ces biais sont inévitables : ils découlent directement des données humaines sur lesquelles l’IA est entraînée. Thilo Hagendorff, responsable du groupe de recherche sur la sécurité de l’IA, explique que les modèles d’alignement cherchent à rendre les IA inoffensives, honnêtes et utiles, mais que ces critères peuvent entrer en conflit avec certaines idéologies conservatrices.

En d’autres termes, ce que certains perçoivent comme un biais progressiste serait parfois simplement le reflet d’un effort pour éviter la haine, la désinformation ou la manipulation.

La société de Sam Altman affirme pourtant avoir fait un grand pas vers la neutralité. Selon elle, moins de 0,01 % des réponses générées par GPT-5 présentent encore des signes de partialité politique. Des tests internes, portant sur plus de 500 questions dans une centaine de domaines, auraient montré que les nouvelles versions – GPT-5 Instant et GPT-5 Thinking – répondent de manière plus équilibrée et moins orientée.

Mais certains experts, comme Daniel Kang de l’Université de l’Illinois, invitent à la prudence : « Les benchmarks utilisés pour mesurer ces biais souffrent souvent de défauts méthodologiques : mesurent-ils vraiment ce qu’ils prétendent ? »

Cette quête de neutralité n’est pas étrangère au climat politique actuel. Le président américain Donald Trump a récemment signé un décret visant à prévenir la « propagation de l’IA woke » dans les agences fédérales. Ce texte exige que les systèmes d’intelligence artificielle utilisés par le gouvernement soient idéologiquement neutres et qu’ils rejettent les politiques de diversité, d’équité et d’inclusion.

Autrement dit, Washington veut des IA « sans opinion ». Mais cette exigence interroge : peut-on vraiment effacer toute trace de perspective humaine dans des outils formés par des milliards de phrases écrites par des humains ?

Ironiquement, plus on cherche à rendre les IA neutres, plus on risque d’introduire de nouveaux biais : celui de ceux qui définissent ce que signifie « neutre ». L’idéologie, même déguisée en objectivité, reste une construction humaine.

Dans un monde où les algorithmes deviennent des acteurs de l’opinion publique, la question n’est donc plus seulement de savoir si une IA est biaisée, mais qui décide de ce que le “biais” signifie.

Cette évolution montre à quel point l’intelligence artificielle n’est plus un simple outil technologique : elle est devenue un enjeu politique mondial. Les États, les entreprises et les citoyens se battent désormais pour influencer la façon dont les machines perçoivent le monde. Et, comme souvent, celui qui contrôle le récit contrôle le pouvoir.

Suivez TekTek pour rester à jour sur les enjeux de l’intelligence artificielle et du numérique

Twitter/X : @iam_tektek

Threads : @iam_tektek

Instagram : @iam_tektek

Chaîne WhatsApp : TekTek sur WhatsApp

Source : The Register

Partager

Comments are closed.