Viele Anwender behandeln ChatGPT wie eine vertraute Person, der sie intime Sorgen und Geheimnisse anvertrauen. Diese Erwartung von Vertraulichkeit erinnert an geschützte Gespräche mit Ärzten oder Therapeuten. Doch im Unterschied zu traditionellen Kommunikationsformen ist die Intimsphäre bei digitalen KI-Dialogen nur eingeschränkt gegeben.
Automatisches Scanning durch OpenAI
OpenAI setzt auf technische Systeme, um problematische Inhalte frühzeitig zu erkennen. In einem offiziellen Beitrag erklärt das Unternehmen:
„We have leveraged a broad spectrum of tools, including dedicated moderation models and the use of our own models for monitoring of safety risks and abuse“. („Wir haben ein breites Spektrum an Werkzeugen eingesetzt, darunter spezielle Moderationsmodelle sowie den Einsatz unserer eigenen Modelle zur Überwachung von Sicherheitsrisiken und Missbrauch.“)
Damit wird deutlich, dass jede Unterhaltung auf potenzielle Risiken hin überprüft wird und Moderatoren im Bedarfsfall Zugriff haben können.
Krisensituationen und Behördenweitergabe
Besonders sensibel sind Fälle psychischer Notlagen. OpenAI betont: „If someone expresses suicidal intent, ChatGPT is trained to direct people to seek professional help“. Gleichzeitig differenziert das Unternehmen klar zwischen Selbstgefährdung und Gefährdung anderer. Bei Suizidgedanken erfolgt keine Meldung an die Polizei, um die Privatsphäre der Betroffenen zu wahren. Hingegen heißt es:
„When we detect users who are planning to harm others, we route their conversations to specialized pipelines… we may refer it to law enforcement.“ („Wenn wir feststellen, dass Nutzer planen, anderen Schaden zuzufügen, leiten wir ihre Gespräche in spezialisierte Abläufe weiter … wir können den Fall an die Strafverfolgungsbehörden weitergeben.“)
Rechtliche Grauzonen und offene Fragen
Die Überwachungspraxis wirft rechtliche und ethische Fragen auf. Nutzer erwarten Vertraulichkeit, müssen aber mit technischer Moderation und im Extremfall mit Weitergabe an Behörden rechnen. Wie sich diese Balance zwischen Sicherheit und Privatsphäre in unterschiedlichen Rechtssystemen durchsetzt, bleibt abzuwarten.
Eingeschränkte Intimsphäre bei KI-Gesprächen
Die Diskussion um ChatGPT Privatsphäre wird durch internationale Vorfälle und Klagen verschärft. Klar ist: Die scheinbare Intimsphäre bei KI-Gesprächen existiert nur eingeschränkt. Zukünftige Gerichtsentscheidungen und regulatorische Vorgaben werden entscheidend dafür sein, wie weit OpenAI in der Überwachung gehen darf – und wie stark die Privatsphäre der Nutzer geschützt wird.








