Eine aktuelle Untersuchung von Forschern der Universitäten Stanford und Yale lässt die oft wiederholte Verteidigung der KI-Entwickler, ihre Modelle würden lediglich abstrakte Konzepte und keine konkreten Inhalte speichern, ziemlich alt aussehen. Die Wissenschaftler konnten nachweisen, dass Sprachmodelle ihre Trainingsdaten keineswegs nur abstrahieren, sondern diese teils fast wortwörtlich wiedergeben können. Besonders Modelle wie Claude 3.7 Sonnet, Gemini 2.5 Pro und Grok 3 ließen sich im Test dazu verleiten, massive Textblöcke urheberrechtlich geschützter Werke zu extrahieren. Bei "Harry Potter" lieferte Claude mit entsprechenden Tricks fast 96 Prozent des Inhalts. Gemini und Grok waren mit über 70 Prozent sehr freigiebig, wobei Grok 3 als einziges der getesteten Modelle in dieser Version noch primär im Einsatz ist, während die anderen bereits durch neuere Iterationen ersetzt wurden.
Ein Detail der Studie ist allerdings besonders brisant: Ausgerechnet der prominente Marktführer OpenAI scheint seine Sicherheitsfilter deutlich besser im Griff zu haben als der Rest des Feldes. GPT-4.1 zeigte sich im Test erstaunlich widerstandsfähig, blockte Anfragen weit häufiger ab und gab signifikant weniger Text preis als die Konkurrenz. Diese Diskrepanz wirft ein interessantes Licht auf den aktuellen juristischen Kampf, in dem OpenAI gerade gerichtlich dazu verpflichtet wurde, rund 20 Millionen Chat-Protokolle an die Gegenseite zu übergeben. Man könnte fast meinen, die Anwälte der Medienhäuser hätten sich auf den falschen Gegner eingeschossen, wenn man sieht, wie durchlässig die Konkurrenzmodelle im Vergleich zu ChatGPT agieren.












