OpenAI führt «Vertrauenswürdigen Kontakt»-Feature ein — ChatGPT-Selbstschutz-System erweitert

OpenAI hat am 7. Mai die Einführung einer Sicherheitsfunktion namens «Vertrauenswürdiger Kontakt» für ChatGPT angekündigt. Erkennt das System Gespräche, die auf Selbstschädigung oder Suizidgedanken hindeuten, wird die Nutzerin oder der Nutzer aufgefordert, vorab festgelegte Informationen an eine Kontaktperson zur Notfällen weiterzuleiten. Dies ist Teil von OpenAIs breiter Palette an Schutzmassen für die psychische Gesundheit im KI-Bereich und kennzeichnet eine Ausweitung der Verantwortung grosser Sprachmodelle hinsichtlich der Sicherheitsintervention für Nutzer. Die Funktion spiegelt einen branchenweiten Trend wider — weg von reaktiven Massnahmen hin zu proaktivem Schutz — angetrieben durch wachsenden regulatorischen Druck und öffentliche Erwartungen.

Hintergrund OpenAI hat am 7. Mai 2026 die Einführung einer neuen Sicherheitsfunktion namens «Vertrauenswürdiger Kontakt» für ChatGPT angekündigt. Diese Massnahme zielt darauf ab, Nutzern zusätzliche äussere Schutzschichten bereitzustellen, wenn Dialoginhalte Risikokriterien für Selbstschädigung berühren. Gemäss Berichten von TechCrunch erkennt das后台-Sicherheitssystem von OpenAI über自然sprachverständnismodelle, wenn Nutzer möglicherweise Selbstschadensabsichten zum Ausdruck bringen oder entsprechende Absichten erkennen lässt, woraufhin der Interventionsprozess ausgelöst und eine Warninformation an die vorab festgelegten vertrauenswürdigen Kontaktpersonen gesendet wird. Diese Funktion wurde nicht vollständig von Grund auf neu entwickelt, sondern stellt die neueste Komponente in einem System dar, das OpenAI in den letzten Jahren kontinuierlich ausgebaut hat, um den Schutz der Nutzerverantwortung zu stärken. In den vergangenen Jahren hat OpenAI bereits verschiedene passive Schutzmassnahmen implementiert, darunter Inhaltsfilterung, Krisenressourcen-Leitung und Dialogbeendigung. Der «Vertrauenswürdige Kontakt» markiert erstmals die Ausdehnung des Risikowarnmechanismus über die Plattform hinaus und nutzt soziale Beziehungsnetzwerke der realen Welt, um die begrenzten Möglichkeiten rein online-basierter Interventionen auszugleichen. ## Tiefenanalyse Aus technischer Sicht liegt die zentrale Herausforderung dieser Funktion nicht im Versenden von Benachrichtigungen, sondern in der Genauigkeit und Aktualität der Risikoidentifikation. Grosssprachmodelle stehen bei der Verarbeitung menschlicher Ausdrucksformen vor enormen Schwierigkeiten, insbesondere bei psychischen Krisen, die durch stark indirekte und metaphorische Formulierungen gekennzeichnet sind. Das Risiko von Fehleinschätzungen ist gross: Die Verwechslung normaler emotionaler Äußerungen mit Selbstschadensneigungen oder das Übersehen echter Krisensignale können schwerwiegende ethische Konsequenzen nach sich ziehen. OpenAI setzt in solchen sensiblen Szenarien auf einen mehrstufigen Entscheidungsmechanismus, der in der Regel nicht auf Basis eines einzelnen Gesprächsausschnitts die Kontaktnotifizierung auslöst. Stattdessen werden der Dialogkontext, die historischen Interaktionsmuster der Nutzer sowie Indikatoren für anomalisches Verhalten zusammenführend bewertet. Gleichzeitig spiegelt das Design dieser Mechanik die Abwägung zwischen Datenschutz und Sicherheit wider: Die Plattform muss einen konformen Pfad zwischen dem «Schutz der Lebenssicherheit von Nutzern» und dem «Respekt vor der Privatsphäre der Nutzer» finden. Daher采用了 der Nutzer die autorisierte Modus der vorab festgelegten Kontaktpersonen, anstatt einseitig in die Intervention einzugreifen. ## Branchenwirkung Beobachtet man die Wettbewerbsdynamik der Branche, positioniert sich OpenAI mit dieser Massnahme an der Spitze im Bereich des AI-gestützten psychologischen Gesundheitschutzes. Microsoft Teams und Bing Chat haben bereits ähnliche Kriseninterventionsfunktionen vorgestellt, diese beschränkten sich jedoch meist darauf, Hotlinenummern zu empfehlen oder Nutzer zu professionellen Ressourcen zu leiten, ohne eine proaktive externe Warnfähigkeit zu bieten. Google Gemini und Anthropic Claude haben ebenfalls ihre Sicherheitsvorkehrungen verschärft, doch in der Innovation, soziale Beziehungsnetzwerke in die Sicherheitsschutzstruktur zu integrieren, führt OpenAI derzeit. Diese differenzierte Wettbewerbsstrategie spiegelt nicht nur OpenAIs Selbstbewusstsein hinsichtlich der Nutzermassen wider – ChatGPT weist monatlich aktive Nutzerzahlen auf, die die der Wettbewerber deutlich überschreiten, was bedeutet, dass die gesellschaftliche Impactfläche von Sicherheitsinterventionen am grössten ist –, sondern offenbart auch einen Branchenkonsens: Wenn KI-Chatbots zunehmend als Gesprächspartner für emotionale Entlastung genutzt werden, hat sich die Verantwortung der Plattform gegenüber den Nutzern vom «Bereitstellen von Informationen» hin zum «Beschützen der Sicherheit» erweitert. Regulatorische Behörden in Europa und den USA haben die Verantwortungsmechanismen für KI-Plattformen in den letzten Jahren kontinuierlich verschärft. Die Gesetzgebung im Bereich KI-Ethik und Sicherheit wird zunehmend vorangetrieben. OpenAIs Schritt dient nicht nur der aktiven Antwort auf regulatorische Erwartungen, sondern verfolgt auch strategische Absichten, einen First-Mover-Vorteil im Compliance-Bereich zu etablieren. ## Ausblick Zu den offenen Fragen der praktischen Implementierung gehören verschiedene Detailaspekte, darunter die konkrete Form der Kontaktnotifizierung, Auslösungsschwellen, Mechanismen zur Nutzeraufhebung und die Unterstützung mehrstufiger Kontaktsysteme. Diese Faktoren werden die tatsächliche Wirksamkeit und Akzeptanz der Funktion direkt beeinflussen. Zudem ist zu beobachten, ob dieser Mechanismus schrittweise auf andere Produkte wie Codex oder Sora ausgeweitet wird oder ob er auf nicht-Selbstschadens-spezifische psychische Krisenszenarien angewendet wird. Ein besonders interessanter Szenario wäre die Öffnung des «Vertrauenswürdiger Kontakt»-Mechanismus als API oder SDK, sodass Drittanbieter-Entwickler ihn in ihre eigenen KI-Produkte integrieren könnten, was die Sicherheitsstandards der gesamten Branche vorantreiben würde. Ungeachtet dessen steht jede KI-Interventionsmassnahme im Bereich der psychischen Gesundheit vor einer grundlegenden Herausforderung: Technologische Systeme können professionelle psychologische Beratung nicht ersetzen, und eine übermässige Abhängigkeit von algorithmischen Entscheidungen birgt neue Risiken. Die Schaffung einer wirksamen Verbindung zwischen automatisierter Warnung und professioneller menschlicher Intervention bleibt eine Frage, der sich OpenAI und die gesamte AI-Branche kontinuierlich stellen müssen.