Anthropic verklagt das Pentagon und wird von mehreren Bundesbehörden ausgesperrt

Mehrere US-Bundesbehörden haben die Nutzung von Anthropics Claude-Modellen eingestellt. Hintergrund sind Meinungsverschiedenheiten zum militärischen Einsatz. Anthropic lehnte uneingeschränkten Zugang ab, wurde als Lieferkettenrisiko eingestuft und klagte. Die OpenAI-Pentagon-Kooperation steht ebenfalls in der Kritik.

Anthropic hat einen Vertrag mit dem US-Verteidigungsministerium offiziell abgelehnt. Die Begruendung: Die eigenen KI-Modelle erfuellen derzeit nicht die fuer militaerische Anwendungen erforderlichen Sicherheitsstandards. Diese Entscheidung hat in der KI-Branche grosse Wellen geschlagen.

In einer oeffentlichen Erklaerung betonte CEO Dario Amodei, die Kernmission des Unternehmens sei die sichere KI-Entwicklung. Militaerische KI-Anwendungen erforderten ein ausserordentlich hohes Mass an Zuverlaessigkeit, Vorhersagbarkeit und Kontrollierbarkeit. Wenn KI-Systemenscheidungen direkt Menschenleben beeinflussen koennten, sei jeder Grad an Halluzination oder unvorhersehbarem Verhalten inakzeptabel. Obwohl die Claude-Modelle in kommerziellen und wissenschaftlichen Kontexten hervorragende Leistungen erbringen, uebersteigen die Sicherheitsanforderungen militaerischer Szenarien die zivilen Standards bei weitem.

Diese Haltung steht in starkem Kontrast zu den vorherrschenden Branchentrends. OpenAI hat seine Pentagon-Partnerschaften in den letzten Jahren erheblich ausgeweitet: von anfaenglichen Cybersicherheits-Verteidigungstools bis hin zu Nachrichtenanalyse, Gefechtsfeldbewusstsein und Logistikoptimierung. Berichten zufolge hat OpenAI massgeschneiderte GPT-Modelle fuer die Verarbeitung nicht klassifizierter Geheimdienstzusammenfassungen bereitgestellt. Google hat sich nach den Mitarbeiterprotesten gegen Project Maven 2018 nicht aus dem militaerischen KI-Bereich zurueckgezogen, sondern seine Militaervertraege systematisch vertieft. Google Cloud ist mittlerweile einer der wichtigsten Cloud-Dienstleister des Pentagons.

Anthropics Entscheidung hat in KI-Ethikkreisen eine polarisierte Debatte ausgeloest. Befuerworter sehen darin ein Vorbild fuer verantwortungsvolle KI-Entwicklung und ziehen Parallelen zu Wissenschaftlern, die Waffenforschung ablehnten. Kritiker hingegen argumentieren, dass der Verzicht naive Moralhaltung sei. Wenn sicherheitsbewusste Unternehmen sich zurueckziehen, wende sich das Pentagon unweigerlich an weniger sicherheitsbewusste Anbieter, was zu gefaehrlicheren KI-Systemen in kritischen militaerischen Szenarien fuehren koenne.

Bemerkenswert ist, dass Anthropic kuenftige Regierungskooperationen nicht vollstaendig ausgeschlossen hat. Amodei erklaerte, das Unternehmen entwickle strengere Sicherheitsbewertungsrahmen und wuerde seine Position ueberdenken, sobald die Modelle militaerische Anforderungen erfuellten. Dieses strategische voruebergehende Ablehnen zeigt Anthropics Bemuehen, kommerziellen Realismus mit Sicherheitsprinzipien in Einklang zu bringen.