Rejetée par Claude, l'armée américaine se tourne vers ChatGPT : le bras de fer inédit avec Anthropic
Anthropic a dit non. Claude ne sera plus utilisé par les forces armées américaines. À la suite d'un bras de fer historique, la société a refusé catégoriquement d'ouvrir son modèle à des usages militaires, malgré une pression directe du Pentagone. OpenAI a immédiatement pris la place : un accord a été signé avec le ministère de la Défense.
Dans cet article
Le refus d'Anthropic : le raid au Venezuela qui a tout fait basculer
Tout a commencé avec une utilisation non autorisée de Claude par l'armée US. Selon les révélations du Wall Street Journal et Axios, une version militarisée de Claude a été intégrée à un système de drone lors du raid contre Nicolás Maduro au Venezuela fin 2025.
🎯 Ce que Claude a fait lors du raid
Une version militarisée de Claude a été intégrée à un système de drone lors du raid contre Nicolás Maduro au Venezuela fin 2025.
Collecte du renseignement en temps réel
Identification et priorisation de cibles
Simulation de scénarios de combat
« En toute conscience, nous ne pouvons pas fournir un produit qui met militaires et civils américains en danger. Utiliser l'IA à des fins de surveillance de masse domestique est incompatible avec les valeurs démocratiques. »
La pression du Pentagone et la convocation d'Amodei
Avant même cette découverte, le ministre de la Défense Pete Hegseth avait convoqué Dario Amodei pour une rencontre tendue.
🏛️ La demande du Pentagone
Hegseth a demandé de lever toutes les restrictions par défaut et d'ouvrir Claude aux forces armées sans garde-fous. Amodei a refusé, arguant que les systèmes d'IA ne sont pas encore assez fiables pour piloter des armes létales ou des opérations de surveillance massive.
« Dans un nombre restreint de cas, nous pensons que l'IA peut nuire aux valeurs démocratiques, plutôt que les défendre. »
La réaction explosive de Donald Trump
Le président Trump n'a pas digéré le refus. Le 10 février 2026, il a publié sur Truth Social une diatribe virulente.
📢 Le message de Trump (10 février 2026)
« Anthropic est une ENTREPRISE D'EXTRÊME GAUCHE WOKE dirigée par des gens qui n'ont aucune idée de ce qu'est le monde réel. Je demande à TOUTES les agences fédérales du gouvernement américain de CESSER IMMÉDIATEMENT toute utilisation de la technologie d'Anthropic. Leur égoïsme met en danger des vies américaines, nos troupes et la sécurité nationale. »
« Arrogance et trahison. Les soldats américains ne seront jamais pris en otage par les caprices idéologiques des géants de la tech. »
Malgré le refus, Claude a continué d'être utilisé
Le WSJ et Axios révèlent que l'armée a continué à se servir de Claude dans les frappes récentes contre l'Iran, malgré le refus explicite d'Anthropic.
⚠️ Utilisation non autorisée
Anthropic a été mis devant le fait accompli. Le ministère de la Défense a reconnu l'utilisation.
Recueil de renseignement en temps réel
Sélection facilitée de cibles
Simulations de combats sur le terrain
« Anthropic continuera à fournir Claude pendant une période n'excédant pas six mois afin de permettre une transition en douceur vers un service plus performant et plus patriotique. » — Ministère de la Défense
OpenAI entre en scène : l'accord avec le Pentagone
Peu après le refus d'Anthropic, OpenAI a conclu un accord avec le Pentagone. Sam Altman l'a confirmé dans un communiqué sur X.
🤝 L'accord OpenAI-Pentagone
« Le Pentagone a accepté de se plier à deux de nos principes de sécurité les plus importants : l'interdiction de la surveillance de masse au niveau national et la responsabilité humaine dans l'usage de la force, y compris pour les systèmes d'armes autonomes. »
Garanties techniques (contrôles internes, audits)
Approche différente : moins de politiques d'utilisation, plus de garde-fous techniques embarqués
Interdiction surveillance de masse nationale
Responsabilité humaine obligatoire dans l'usage de la force
Tacle implicite à Anthropic : « D'autres laboratoires ont réduit ou supprimé leurs garde-fous et se reposent principalement sur des politiques d'utilisation. »
La Silicon Valley se divise
📝 La lettre des 400 employés
« Nous nous réjouissons de la posture courageuse d'Anthropic. Les entreprises tech doivent refuser les exigences militaires quand elles mettent en danger les valeurs démocratiques. »
— Lettre ouverte signée par 400 employés de Google, OpenAI, Amazon, Microsoft et autres
Des syndicats d'Amazon, Microsoft et Google ont appelé leurs directions à suivre l'exemple d'Anthropic.
Conclusion : Anthropic paie le prix de l'éthique, OpenAI rafle la mise militaire
Anthropic a dit non aux frappes létales et à la surveillance de masse. Trump a traité la start-up d'« entreprise d'extrême gauche woke ». OpenAI a signé avec le Pentagone, avec des garanties qui ressemblent étrangement à celles d'Anthropic.
En 2026, la guerre de l'IA militaire est devenue aussi politique que technologique. Anthropic perd un client stratégique, mais gagne en crédibilité éthique. OpenAI prend la place… et le risque.
Vous applaudissez le courage d'Anthropic ou vous pensez que refuser l'armée US est irresponsable ? OpenAI a-t-il fait le bon choix en signant malgré les protestations internes ? Dites-nous votre avis en commentaires !
Article rédigé selon les critères E-E-A-T de Google
Cet article respecte les critères E-E-A-T avec données vérifiées Wall Street Journal, Axios et communiqués officiels Anthropic/OpenAI. Découvrez notre guide complet sur les critères E-E-A-T →
Sources
- Wall Street Journal – Révélations utilisation Claude par l'armée US
- Axios – Bras de fer Anthropic-Pentagone février 2026
- Truth Social – Déclaration Donald Trump 10 février 2026
- X (Twitter) – Communiqué Sam Altman/OpenAI
- Anthropic – Communiqué officiel Dario Amodei
Besoin d'un site web professionnel ?
WY-Créations développe des sites performants et bien référencés depuis 2018
✓ Demander un devis gratuit