La start-up Anthropic, spécialisée en intelligence artificielle, a reçu l'ordre de fermer définitivement ses portes sur ordre du président américain Trump et du département de la Défense pour avoir refusé d'autoriser l'utilisation de son modèle d'IA, Claude, à des fins de « surveillance de masse aux États-Unis » et pour des « armes létales autonomes sans supervision humaine ». Cette décision a non seulement provoqué un tollé dans la Silicon Valley, mais a également incité des centaines d'employés de Google et d'OpenAI à lancer une pétition interne en soutien au secteur technologique, appelant la communauté tech à s'unir contre les pressions gouvernementales.
Ce bras de fer historique, considéré comme un affrontement entre « l’éthique de l’IA et la sécurité nationale », a récemment atteint son paroxysme. Pour la première fois, le gouvernement américain a ciblé ses propres entreprises leaders en IA, brandissant l’étendard du « risque lié à la chaîne d’approvisionnement », un terme généralement réservé aux sanctions contre des puissances étrangères hostiles.
L'administration Trump a pris des mesures fermes : Claude a eu six mois pour être complètement retiré de la liste des candidats éligibles.
Selon des médias étrangers, le président américain Trump a publié une déclaration ferme le 27 février sur la plateforme Truth Social, critiquant Anthropic pour avoir tenté d'imposer ses conditions d'utilisation au département de la Guerre plutôt que la Constitution américaine, et qualifiant cette initiative d'« erreur catastrophique ». Trump a officiellement ordonné à toutes les agences fédérales (y compris le département de la Défense) de cesser complètement d'utiliser les produits Anthropic dans un délai de six mois.
Suite à cela, le secrétaire américain à la Défense, Pete Hegseth, a annoncé qu'Anthropic était désignée comme « risque pour la chaîne d'approvisionnement constituant une menace pour la sécurité nationale ». Cette interdiction est entrée en vigueur immédiatement, ce qui signifie que tout entrepreneur, fournisseur ou partenaire faisant affaire avec l'armée américaine se voit interdire toute activité commerciale avec Anthropic.
Anthropic a refusé tout compromis et a menacé de porter l'affaire devant les tribunaux.
Face aux pressions extrêmes de la Maison Blanche et du Pentagone, Anthropic a choisi de répondre avec force.
Le PDG d'Anthropic, Dario Amodei, a déjà tracé deux lignes rouges inviolables : l'IA ne sera jamais utilisée pour la surveillance de masse du peuple américain, et l'IA ne sera jamais intégrée dans des systèmes d'armes autonomes sans supervision humaine.
En réponse à l'interdiction gouvernementale, Anthropic a publié un communiqué officiel exprimant ses profonds regrets et soulignant le caractère inédit de la désignation d'une entreprise américaine comme « risque pour la chaîne d'approvisionnement ». Un porte-parole a insisté : « Quelles que soient les intimidations ou les sanctions imposées par le ministère de la Défense, notre position sur la surveillance intérieure à grande échelle et les armes entièrement autonomes restera inchangée. Nous contesterons cette désignation devant les tribunaux. »
Silicon Valley United : « Nous ne serons pas divisés. »
Anthropic n'est pas la seule entreprise prise dans cette tourmente politique. Plus de 450 employés de Google et d'OpenAI (dont la plupart ont signé la lettre sous leur vrai nom) ont publié conjointement une lettre ouverte intitulée « Nous ne serons pas divisés ».
La lettre exhortait vivement les dirigeants de Google et d'OpenAI à mettre de côté leurs différends commerciaux et à se joindre à Anthropic pour rejeter conjointement les demandes excessives du Département de la Défense concernant l'utilisation de l'IA. L'auteur de la lettre soulignait que le gouvernement tentait d'instrumentaliser la peur pour diviser les entreprises d'IA et les contraindre à se soumettre sous la pression (xAI, dirigée par Elon Musk, avait précédemment accepté les conditions de coopération du Département de la Défense).
Dans une note interne, le PDG d'OpenAI, Sam Altman, a assuré aux employés qu'OpenAI se fixerait les mêmes lignes rouges éthiques qu'Anthropic ; il a ensuite déclaré aux médias que le département américain de la Défense ne devrait pas utiliser cette méthode pour menacer les entreprises technologiques américaines.



