Une confrontation inédite vient d’éclater au cœur de l’écosystème mondial de l’intelligence artificielle. La société américaine Anthropic, l’un des laboratoires les plus influents dans le développement d’IA avancées, a décidé de poursuivre en justice le Pentagone après avoir été inscrite sur une liste de risques pour la sécurité nationale. Derrière ce conflit juridique se cache une question qui pourrait redéfinir l’avenir de la technologie : qui doit décider de l’usage de l’intelligence artificielle dans les opérations militaires l’État ou les entreprises qui la créent ?
L’affaire remonte à une décision du Département de la Défense des États-Unis. Le Pentagone a récemment classé Anthropic comme un risque pour la chaîne d’approvisionnement technologique de la défense américaine. Cette décision a pour effet de limiter fortement l’utilisation de la technologie de l’entreprise dans certains projets militaires. Selon plusieurs sources, l’intelligence artificielle d’Anthropic aurait déjà été utilisée dans certaines opérations liées au conflit impliquant l’Iran, ce qui aurait accentué les tensions entre la société et les autorités américaines.
À l’origine du désaccord, une question particulièrement sensible : les limites éthiques de l’intelligence artificielle. Anthropic a catégoriquement refusé de supprimer certaines protections intégrées dans ses systèmes. Ces protections empêchent notamment que son intelligence artificielle soit utilisée pour développer des armes autonomes capables de décider seules de tuer, ou pour surveiller massivement les citoyens américains.
Pour le Pentagone, ces restrictions posent problème. Les responsables militaires estiment qu’une entreprise privée ne devrait pas décider des limites technologiques qui pourraient influencer la capacité d’un pays à se défendre. Selon eux, seule la loi américaine doit définir ce qui est acceptable ou non dans l’usage de l’intelligence artificielle dans le domaine militaire. Ils soutiennent que des restrictions imposées par une entreprise pourraient, dans certaines situations, mettre en danger la sécurité nationale.
Anthropic voit les choses différemment. Dans la plainte déposée devant un tribunal fédéral en Californie, l’entreprise affirme que la décision du Pentagone est illégale et constitue une violation de ses droits constitutionnels, notamment la liberté d’expression et le droit à une procédure équitable. Elle demande au juge d’annuler la désignation imposée par le Département de la Défense et d’empêcher les agences fédérales de faire appliquer cette mesure.
Le PDG d’Anthropic, Dario Amodei, a également expliqué que la technologie actuelle n’est pas suffisamment fiable pour être utilisée dans des systèmes d’armes entièrement autonomes. Selon lui, permettre à une intelligence artificielle de prendre seule des décisions de vie ou de mort représenterait un danger majeur. L’entreprise a également tracé une ligne rouge concernant la surveillance domestique, estimant que l’utilisation de l’IA pour surveiller la population américaine pourrait porter atteinte aux libertés fondamentales.
Cette confrontation survient dans un contexte politique déjà extrêmement tendu. L’administration du président Donald Trump a ordonné aux agences fédérales de réduire progressivement leurs collaborations avec Anthropic sur une période de six mois. Cette décision pourrait représenter une menace financière importante pour l’entreprise, car les contrats liés au secteur de la défense représentent des investissements pouvant atteindre plusieurs centaines de millions de dollars.
Dans le même temps, d’autres acteurs majeurs de l’intelligence artificielle ont rapidement renforcé leurs relations avec le Pentagone. OpenAI, soutenue par Microsoft, a notamment annoncé un nouvel accord visant à intégrer ses technologies dans le réseau informatique du Département de la Défense. Son dirigeant, Sam Altman, a affirmé que les principes d’OpenAI restaient compatibles avec l’usage militaire tant que des humains conservent le contrôle des systèmes d’armes.
Ce conflit dépasse largement le cas d’Anthropic. Il pose une question fondamentale qui va accompagner toute l’ère de l’intelligence artificielle : jusqu’où les entreprises technologiques doivent-elles coopérer avec les gouvernements lorsqu’il s’agit de sécurité nationale ?
Pendant des décennies, les technologies militaires étaient développées principalement par des institutions publiques ou par des entreprises travaillant exclusivement pour la défense. Aujourd’hui, les innovations les plus avancées émergent souvent dans le secteur privé, dans des laboratoires d’IA qui travaillent aussi bien pour des entreprises civiles que pour des gouvernements.
Cette nouvelle réalité crée un équilibre fragile. Les États souhaitent disposer de toutes les technologies possibles pour assurer leur sécurité. Les entreprises, elles, doivent aussi protéger leur réputation, leurs principes éthiques et la confiance du public.
Le procès engagé par Anthropic pourrait donc devenir un précédent majeur. La décision de justice déterminera non seulement l’avenir des relations entre cette entreprise et le gouvernement américain, mais pourrait aussi influencer la manière dont toutes les grandes sociétés d’intelligence artificielle négocieront leurs relations avec les armées dans les années à venir.
À mesure que l’intelligence artificielle devient une infrastructure stratégique comparable à l’énergie ou à l’armement nucléaire, une nouvelle question apparaît : dans le monde de demain, la puissance technologique sera-t-elle contrôlée par les États… ou par ceux qui créent les algorithmes ?
Source : Reuters.


