La cheffe robotique d'OpenAI démissionne pour protester contre l'accord avec le Pentagone
Caitlin Kalinowski, responsable de la robotique chez OpenAI, a démissionné le 8 mars pour protester contre l'accord de l'entreprise avec le Département de la Défense américain. Elle a déclaré que «la surveillance des Américains sans contrôle judiciaire et l'autonomie létale sans autorisation humaine sont des lignes rouges qui méritaient plus de délibération». L'événement survient après qu'Anthropic a été désigné «risque pour la chaîne d'approvisionnement» par le Pentagone.
La cheffe robotique d'OpenAI démissionne pour protester contre l'accord avec le Pentagone
Déroulement des événements
Le 8 mars 2026, Caitlin Kalinowski, responsable de la robotique et du matériel de consommation chez OpenAI, a annoncé sa démission simultanément sur LinkedIn et X. Sa déclaration était concise et percutante : « J'ai démissionné d'OpenAI. Je me soucie profondément de l'équipe robotique et du travail que nous avons construit ensemble. Ce n'était pas une décision facile. »
La démission de Kalinowski vise directement l'accord de coopération IA signé fin février entre OpenAI et le département américain de la Défense. Cet accord permet aux systèmes IA d'OpenAI de fonctionner dans l'environnement informatique sécurisé du Pentagone, dans le cadre des efforts du gouvernement américain pour intégrer des outils IA avancés dans le travail de sécurité nationale.
La controverse centrale : où sont les lignes rouges ?
Kalinowski a tracé deux lignes rouges claires dans sa déclaration publique :
1. **Surveillance citoyenne sans supervision judiciaire** : utiliser l'IA pour surveiller les citoyens américains sans autorisation de tribunal
2. **Autonomie létale sans autorisation humaine** : permettre aux systèmes IA d'exécuter des actions létales sans décision finale humaine
Elle considère que ces questions « méritant plus de délibération qu'elles n'en ont reçu » ont été précipitamment ignorées pendant le processus de négociation. Ce n'est pas une opposition à l'application de l'IA dans la défense — elle a clairement déclaré que « l'IA a un rôle important dans la sécurité nationale » — mais plutôt une opposition à l'avancement précipité sans cadre de gouvernance adéquat.
Contexte industriel : le tournant de la militarisation de l'IA
Cet incident n'est pas isolé. Au cours des deux dernières semaines, l'industrie IA a connu des bouleversements sans précédent autour des questions de militarisation :
- **Anthropic désignée comme « risque de chaîne d'approvisionnement »** : fin février, Anthropic a été officiellement désignée comme « risque de chaîne d'approvisionnement » par le secrétaire à la Défense Pete Hegseth pour avoir refusé que son modèle Claude soit utilisé pour la surveillance domestique à grande échelle et les armes autonomes — cette étiquette est généralement réservée aux entités étrangères hostiles
- **OpenAI comble rapidement le vide** : après l'exclusion d'Anthropic, OpenAI a rapidement conclu un accord avec le Pentagone, promettant des « lignes rouges » tout en obtenant le contrat commercial
- **Google entre également dans l'arène** : le département de la Défense a également introduit les systèmes IA de Google sur sa plateforme GenAIMil
La réponse et le dilemme d'OpenAI
Le porte-parole d'OpenAI a répondu que l'accord « crée une voie viable pour une utilisation responsable de l'IA en sécurité nationale tout en clarifiant nos lignes rouges : pas de surveillance domestique, pas d'utilisation d'armes autonomes ». Mais cette réponse fait face à trois interrogations :
1. **Exécutabilité des promesses** : qui supervisera le respect de ces lignes rouges ? Il n'existe actuellement aucun mécanisme d'audit tiers indépendant
2. **Ambiguïté des définitions** : comment les définitions précises de « surveillance domestique » et « armes autonomes » sont-elles délimitées dans l'accord ?
3. **Conflit entre pression commerciale et éthique** : quand un concurrent a été exclu pour avoir maintenu une position éthique, OpenAI a choisi l'intérêt commercial
Parcours professionnel de Kalinowski
Kalinowski a rejoint OpenAI depuis Meta en 2024, après avoir dirigé le développement de matériel de réalité augmentée chez Meta. Chez OpenAI, elle était responsable de la construction de projets d'IA physique, incluant le recrutement d'équipes et l'établissement d'un laboratoire robotique. Sa déclaration de démission souligne qu'elle continuera à travailler sur « l'IA physique responsable », suggérant qu'elle croit encore possible un développement dans ce domaine sans prémisse d'application militaire.
Impact profond
Cet événement marque l'entrée officielle de l'industrie IA dans une « période de différenciation éthique » :
- **Nouvelle dimension de mobilité des talents** : les meilleurs talents IA ne regardent plus seulement le salaire et les plateformes technologiques, la position éthique devient un facteur clé de choix de carrière
- **Exposition du déficit de gouvernance** : même les entreprises IA les plus renommées manquent de processus d'examen éthique interne adéquats lors de collaboration gouvernementale
- **Recomposition du paysage concurrentiel** : Anthropic a été punie pour avoir maintenu l'éthique, OpenAI a obtenu un contrat par compromis — cela envoie un signal dangereux à toute l'industrie
Pour les praticiens et observateurs de l'industrie IA, la question n'est plus de savoir si l'IA sera militarisée, mais dans le processus de militarisation, qui trace les lignes, qui les exécute, et qui les supervise.