OpenAI-Robotikchefin tritt aus Protest gegen Pentagon-Deal zurück
Caitlin Kalinowski, OpenAIs Leiterin für Robotik, trat am 8. März aus Protest gegen den Pentagon-AI-Deal zurück. Sie erklärte, dass «Überwachung von Amerikanern ohne richterliche Aufsicht und tödliche Autonomie ohne menschliche Genehmigung» Grenzen seien, die mehr Beratung verdient hätten. Das Ereignis folgt auf Anthropics Einstufung als «Lieferkettenrisiko».
OpenAI-Robotikchefin tritt aus Protest gegen Pentagon-Deal zurück
Ereignisverlauf
Am 8. März 2026 gab Caitlin Kalinowski, Leiterin für Robotik und Verbraucher-Hardware bei OpenAI, gleichzeitig auf LinkedIn und X ihren Rücktritt bekannt. Ihre Erklärung war prägnant und kraftvoll: „Ich bin von OpenAI zurückgetreten. Das Robotik-Team und die Arbeit, die wir zusammen aufgebaut haben, liegen mir sehr am Herzen. Es war keine leichte Entscheidung."
Kalinowskis Rücktritt zielt direkt auf das Ende Februar zwischen OpenAI und dem US-Verteidigungsministerium unterzeichnete KI-Kooperationsabkommen ab. Dieses Abkommen ermöglicht es OpenAIs KI-Systemen, in der sicheren Computing-Umgebung des Pentagons zu operieren, als Teil der Bemühungen der US-Regierung, fortgeschrittene KI-Tools in die nationale Sicherheitsarbeit zu integrieren.
Die zentrale Kontroverse: Wo sind die roten Linien?
Kalinowski zog in ihrer öffentlichen Erklärung zwei klare rote Linien:
1. **Bürgerüberwachung ohne gerichtliche Aufsicht**: KI zur Überwachung amerikanischer Bürger ohne Gerichtsgenehmigung zu verwenden
2. **Tödliche Autonomie ohne menschliche Genehmigung**: KI-Systemen zu erlauben, tödliche Handlungen ohne endgültige menschliche Entscheidung auszuführen
Sie ist der Ansicht, dass diese Themen, die „mehr Beratung verdient hätten, als sie erhielten", während des Deal-Vorantreibungsprozesses hastig übersprungen wurden. Dies ist keine Opposition gegen KI-Anwendungen im Verteidigungsbereich — sie erklärte eindeutig, dass „KI eine wichtige Rolle in der nationalen Sicherheit hat" — sondern eine Opposition gegen hastige Vorstöße ohne angemessenen Governance-Rahmen.
Branchenhintergrund: Wendepunkt der KI-Militarisierung
Dieses Ereignis ist nicht isoliert. In den letzten zwei Wochen erlebte die KI-Industrie beispiellose Turbulenzen rund um Militarisierungsfragen:
- **Anthropic als „Lieferkettenrisiko" eingestuft**: Ende Februar wurde Anthropic von Verteidigungsminister Pete Hegseth offiziell als „Lieferkettenrisiko" eingestuft, weil das Unternehmen sich weigerte, sein Claude-Modell für großflächige Inlandsüberwachung und autonome Waffen zu verwenden — diese Bezeichnung wird normalerweise nur für feindliche ausländische Entitäten verwendet
- **OpenAI füllt schnell die Lücke**: Nach Anthropics Ausschluss schloss OpenAI schnell ein Abkommen mit dem Pentagon ab, versprach „rote Linien", erhielt aber den kommerziellen Vertrag
- **Google steigt ebenfalls ein**: Das Verteidigungsministerium führte auch Googles KI-Systeme auf seiner GenAIMil-Plattform ein
OpenAIs Antwort und Dilemma
Ein OpenAI-Sprecher antwortete, dass das Abkommen „einen praktikablen Weg für verantwortlichen nationalen Sicherheits-KI-Einsatz schafft, während es unsere roten Linien klarstellt: keine Inlandsüberwachung, keine autonomen Waffen". Diese Antwort steht jedoch vor drei Fragen:
1. **Durchsetzbarkeit der Versprechen**: Wer wird überwachen, ob diese roten Linien eingehalten werden? Derzeit existiert kein unabhängiger Drittpartei-Prüfmechanismus
2. **Definitionsunklarheit**: Wie sind die genauen Definitionen von „Inlandsüberwachung" und „autonome Waffen" im Abkommen abgegrenzt?
3. **Konflikt zwischen kommerziellem Druck und Ethik**: Als ein Konkurrent für das Festhalten an ethischen Positionen ausgeschlossen wurde, wählte OpenAI kommerzielle Interessen
Kalinowskis beruflicher Werdegang
Kalinowski wechselte 2024 von Meta zu OpenAI und leitete zuvor bei Meta die Entwicklung von Augmented-Reality-Hardware. Bei OpenAI war sie für den Aufbau physischer KI-Projekte verantwortlich, einschließlich Teamrekrutierung und Einrichtung eines Robotik-Labors. In ihrer Rücktrittserklärung betonte sie, dass sie weiterhin an „verantwortlicher physischer KI" arbeiten werde, was andeutet, dass sie glaubt, es gäbe noch Entwicklungswege in diesem Bereich ohne militärische Anwendungsprämisse.
Tiefgreifende Auswirkungen
Dieses Ereignis markiert den offiziellen Eintritt der KI-Industrie in eine „ethische Differenzierungsperiode":
- **Neue Dimension der Talentmobilität**: Top-KI-Talente schauen nicht mehr nur auf Gehalt und technische Plattformen, ethische Positionen werden zu einem Schlüsselfaktor bei Karriereentscheidungen
- **Governance-Lücken offengelegt**: Selbst die bekanntesten KI-Unternehmen fehlen angemessene interne ethische Überprüfungsprozesse bei Regierungskooperationen
- **Wettbewerbslandschaft neu gestaltet**: Anthropic wurde für das Festhalten an Ethik bestraft, OpenAI erhielt durch Kompromisse einen Vertrag — dies sendet ein gefährliches Signal an die gesamte Industrie
Für Praktiker und Beobachter der KI-Industrie ist die Frage nicht mehr, ob KI militarisiert wird, sondern im Militarisierungsprozess, wer die Linien zieht, wer sie ausführt und wer sie überwacht.