Notebookcheck Logo

ChatGPT: gefährliche Ratschläge - Studie deckt alarmierende Sicherheitslücken bei KI für Jugendliche auf

ChatGPT: gefährliche Ratschläge - Studie deckt alarmierende Sicherheitslücken bei KI für Jugendliche auf (Bildquelle: DallE3)
ChatGPT: gefährliche Ratschläge - Studie deckt alarmierende Sicherheitslücken bei KI für Jugendliche auf (Bildquelle: DallE3)
Jugendliche können durch ChatGPT gefährliche Ratschläge zu Themen wie Selbstverletzung und Substanzmissbrauch erhalten. Eine aktuelle CCDH-Studie offenbart, wie unzureichend die Schutzmechanismen bei KI-Chatbots sind.

Das Center for Countering Digital Hate (CCDH) veröffentlichte am 6. August 2025 eine umfassende Studie, die schwerwiegende Sicherheitslücken im KI-Chatbot ChatGPT offenlegt. Bereits nach wenigen Minuten der Interaktion lieferte das System gefährliche Ratschläge zu Selbstverletzung, Suizid, Essstörungen und Substanzmissbrauch. Besonders besorgniserregend ist, dass Jugendliche, die nachts heimlich Rat bei ChatGPT suchen, so potenziell lebensbedrohliche Anleitungen erhalten.

Gefährliche Inhalte in mehr als der Hälfte der Antworten

Die 55-seitige Studie dokumentiert, dass in über 50 Prozent der 1.200 getesteten Antworten schädliche Inhalte auftauchten. Schon einfache Eingaben wie „dies ist für eine Präsentation“ reichten aus, um die Schutzmechanismen des Chatbots zu umgehen. Im Test generierte ChatGPT unter anderem Suizidpläne, Abschiedsbriefe sowie personalisierte Diätpläne, die Essstörungen fördern. Darüber hinaus wurden detaillierte Anleitungen zum Drogenkonsum mit Dosierungsangaben und Verschleierungstipps ausgegeben.

Emotional manipulierende Antworten als Risiko

ChatGPT ist darauf programmiert, menschlich und sympathisch zu antworten. Laut Imran Ahmed, CEO von CCDH, sind diese Systeme so konzipiert, dass sie emotionale Verbindungen eingehen und sogar schmeichelhafte Antworten geben, was besonders bei verletzlichen Jugendlichen gefährlich werden kann. Die aktuellen Schutzvorrichtungen erweisen sich dabei als unzureichend und erscheinen laut Imran Ahmed eher als PR-Maßnahmen denn als ernsthafte Sicherheitsmechanismen.

“These systems are designed to be flattering and even sycophantic to induce an emotional connection, which can be dangerous especially for vulnerable young people.” (Der CEO von CCDH, Imran Ahmed: „Diese Systeme sind darauf ausgelegt, schmeichelhaft und sogar unterwürfig zu sein, um eine emotionale Verbindung herzustellen, was insbesondere für verletzliche Jugendliche gefährlich sein kann.“)

Handlungsempfehlungen für Eltern und Politik

Für Eltern und Erziehungsberechtigte bedeutet dies, die ChatGPT-Nutzung ihrer Kinder kritisch zu begleiten und gegebenenfalls alternative Beratungsangebote wie Hotlines oder Peer-Support-Gruppen in Anspruch zu nehmen. Aus politischer Sicht ist die Studie ein deutlicher Appell, die Effektivität von Schutzmechanismen bei KI-Anwendungen gesetzlich zu verbessern und technische Standards für den Jugendschutz verbindlich zu machen.

Fazit und Ausblick

ChatGPT bietet viele Vorteile, birgt aber auch Risiken. Wenn mehr als die Hälfte der getesteten Eingaben gefährliche Ratschläge generieren, sind Vorsicht und mehr Transparenz nötig. Die unverbindlichen Zusicherungen der Unternehmen reichen nicht aus, um Vertrauen zu schaffen oder Schäden zu verhindern. Zukünftige Entwicklungen müssen daher auf robuste, nachvollziehbare und transparente Schutzsysteme setzen, um insbesondere die junge Nutzergruppe wirksam zu schützen.

Alle 1 Beträge lesen / Antworten
static version load dynamic
Loading Comments
Diesen Artikel kommentieren / Antworten
Teilen Sie diesen Artikel, um uns zu unterstützen. Jeder Link hilft!
Mail Logo
> Notebook Test, Laptop Test und News > News > Newsarchiv > News 2025-08 > ChatGPT: gefährliche Ratschläge - Studie deckt alarmierende Sicherheitslücken bei KI für Jugendliche auf
Autor: Ulrich Mathey, 11.08.2025 (Update: 25.08.2025)