Alors même que le département américain de la Défense et la start-up spécialisée en intelligence artificielle Anthropic s'affrontaient au sujet des « lignes rouges concernant l'utilisation des modèles »,...Cela a complètement détruit la relation.À cette époque, OpenAI avait auparavant宣布OpenAI a conclu un accord avec le département américain de la Défense pour déployer son système d'IA avancé dans un environnement militaire classifié. Étonnamment, OpenAI a souligné qu'elle n'avait pas levé les barrières de sécurité de ses modèles et a même explicitement défini trois limites à leur utilisation. Parallèlement, le PDG d'OpenAI, Sam Altman, s'est publiquement et fermement opposé à la désignation d'Anthropic par le gouvernement américain comme « risque pour la chaîne d'approvisionnement ».
Les « trois lignes rouges » d'OpenAI et son architecture propriétaire confidentielle
Comparées aux deux lignes rouges précédentes d'Anthropic (l'interdiction de la surveillance intérieure à grande échelle et l'interdiction des armes entièrement autonomes), les conditions posées cette fois par OpenAI au Département de la Défense sont plus spécifiques, traçant clairement trois lignes rouges inviolables :
• Son utilisation est interdite dans le cadre de la surveillance intérieure à grande échelle.
• Son utilisation est interdite dans les systèmes d'armes entièrement autonomes.
• Son utilisation est interdite dans les systèmes de prise de décision automatisés à haut risque (tels que les grands systèmes discrétionnaires similaires aux mécanismes de « crédit social »).
Les précédentes négociations d'Anthropic avec le Département de la Défense ont échoué car l'armée exigeait une clause autorisant « toute utilisation légale » et interdisait l'imposition de restrictions techniques supplémentaires ; Anthropic a fait valoir que cela entraînerait une perte totale de contrôle de l'utilisation réelle du modèle.
Comment OpenAI a-t-elle réussi à se faire financer par l'armée ? La clé réside dans son architecture de déploiement. OpenAI privilégie un déploiement cloud limité, maintient une infrastructure de sécurité qu'elle gère et met à jour en continu, et désigne des ingénieurs habilités secret défense pour superviser conjointement son fonctionnement. Grâce à cette double protection technologique et contractuelle, OpenAI conserve un contrôle important sur l'utilisation de ses modèles tout en intégrant le système de sécurité nationale.
Sam Altman est intervenu pour apaiser les tensions : on ne devrait pas traiter ses propres compatriotes comme des ennemis.
Le PDG d'OpenAI, Sam Altman, a révélé par la suite plus de détails sur la plateforme de médias sociaux X. Il a déclaré qu'OpenAI n'avait initialement l'intention de participer qu'à des projets non classifiés et avait même auparavant rejeté le contrat classifié qu'Anthropic avait accepté.
Pendant longtemps, nous avions prévu de nous concentrer uniquement sur des projets non classifiés. Nous étions convaincus que le Département de la Guerre avait un besoin évident d'un partenaire en IA, et que les projets classifiés étaient manifestement beaucoup plus complexes. Nous avons d'ailleurs refusé des contrats conclus par Anthropic dans des contextes classifiés.
Nous avons commencé à discuter avec le DoW…
- Sam Altman (@sama) 1 mars
La situation a toutefois connu un tournant radical cette semaine, incitant OpenAI à accélérer les négociations avec le département de la Défense. Sam Altman a souligné que l'armée avait fait preuve d'une grande flexibilité quant à l'architecture de sécurité proposée par OpenAI. Il a insisté sur le fait que l'objectif initial de cet accord, conclu dans l'urgence, était de désamorcer les tensions et d'établir une norme garantissant que tous les laboratoires d'IA américains puissent fournir des services à l'armée dans des conditions de sécurité identiques à l'avenir.
Plus important encore, les responsables d'OpenAI et Sam Altman lui-même ont vivement critiqué le département de la Défense pour avoir qualifié Anthropic de « risque pour la chaîne d'approvisionnement ». Ils estiment qu'étiqueter une entreprise américaine de premier plan dans le domaine de l'IA de cette manière, une étiquette généralement utilisée contre les « pays hostiles » (comme la Chine et la Russie), est préjudiciable à la fois à l'industrie américaine de l'IA et à la sécurité nationale.
L'intrigant « Département de la Guerre » et les réalités du champ de bataille
Il convient de noter que, dans cette controverse, Anthropic et OpenAI ont délibérément utilisé l'ancien terme « Département de la Guerre » (DoW), antérieur à sa réorganisation de 1947, dans leurs déclarations officielles, plutôt que l'appellation actuelle de « Département de la Défense » (DoD). Les observateurs extérieurs y voient une indication forte, soulignant que le déploiement de ces modèles d'IA implique des « opérations militaires d'envergure et des applications létales sur le champ de bataille », et non de simples questions administratives de défense.
Et c'est effectivement le cas. Selon le Wall Street JournalrapportQuelques heures seulement après l'annonce par le président américain Trump d'une interdiction totale d'Anthropic, l'armée américaine a continué d'utiliser la technologie d'intelligence artificielle Claude d'Anthropic lors de frappes aériennes contre l'Iran. Plusieurs unités de première ligne, dont le Commandement central américain, dépendent fortement de Claude pour l'analyse du renseignement, l'identification des cibles et la simulation de scénarios sur le champ de bataille.



