Anthropic poursuit le Pentagone et se fait exclure par plusieurs agences fédérales
Plusieurs agences fédérales américaines ont cessé d'utiliser les modèles Claude d'Anthropic suite à des désaccords sur l'usage militaire de l'IA. Anthropic avait refusé l'accès illimité au Département de la Défense, qui l'a classé comme risque pour la chaîne d'approvisionnement. Anthropic a porté plainte. L'expansion du partenariat OpenAI-Défense suscite également des critiques.
Anthropic a officiellement refusé un contrat avec le Département de la Défense américain, estimant que ses modèles d'IA ne satisfont pas encore aux normes de sécurité requises pour les applications militaires. Cette décision a provoqué une onde de choc dans l'industrie de l'IA.
Dans une déclaration publique, le PDG Dario Amodei a expliqué que la mission fondamentale de l'entreprise est d'assurer le développement sûr de l'IA. Il a souligné que les applications militaires exigent un niveau exceptionnellement élevé de fiabilité, de prévisibilité et de contrôlabilité — lorsque les décisions d'un système IA peuvent directement impacter des vies humaines, tout degré d'hallucination ou de comportement imprévisible est inacceptable. Bien que les modèles Claude excellent dans les contextes commerciaux et de recherche, les scénarios militaires requièrent des standards de sécurité bien au-delà des benchmarks civils.
Cette position contraste fortement avec les tendances du secteur. OpenAI a considérablement élargi ses partenariats avec le Pentagone ces dernières années, passant des outils de cyberdéfense initiaux à l'analyse du renseignement, la conscience situationnelle du champ de bataille et l'optimisation logistique. Des rapports indiquent qu'OpenAI a fourni des modèles GPT personnalisés pour le traitement de synthèses de renseignement non classifiées. Google, loin de se retirer après les protestations d'employés liées au Project Maven en 2018, a systématiquement approfondi ses contrats militaires. Google Cloud est désormais l'un des principaux fournisseurs cloud du Pentagone.
La décision d'Anthropic a déclenché un débat polarisé dans les cercles d'éthique de l'IA. Les partisans y voient un modèle de développement responsable, prouvant qu'une entreprise axée sur la sécurité peut maintenir ses principes sous la pression commerciale. Ils établissent des parallèles avec les scientifiques ayant refusé la recherche sur les armes, qualifiant la position d'Anthropic de « moment Oppenheimer » de l'ère IA. Les critiques, cependant, estiment que ce refus relève d'une posture morale naïve. Si les entreprises soucieuses de sécurité s'abstiennent, le Pentagone se tournera vers des fournisseurs moins vigilants, aboutissant potentiellement à des systèmes IA plus dangereux déployés dans des scénarios militaires critiques.
Fait notable, Anthropic n'a pas définitivement fermé la porte à la collaboration gouvernementale. Amodei a déclaré que l'entreprise développe des cadres d'évaluation de sécurité plus rigoureux, et reconsidérerait sa position une fois les exigences militaires satisfaites. Ce « refus temporaire » stratégique révèle l'effort d'Anthropic pour équilibrer réalisme commercial et principes de sécurité.