Die Leistungsfähigkeit großer Sprachmodelle wie ChatGPT hat die Arbeitsweise vieler Menschen verändert. Doch ein Vorfall zeigt, dass der Einsatz dieser Tools mit Risiken verbunden sein kann. Professor Marcel Bucher von der Universität Köln verlor nach eigenen Angaben durch eine einfache Einstellungsänderung zwei Jahre an akademischer Arbeit – Förderanträge, Lehrmaterialien und Publikationsentwürfe waren plötzlich verschwunden.
Probehalber wollte Bucher wohl die Option zur Datenfreigabe zur Nutzung für das Training deaktivieren. Dabei wurden laut seinen Aussagen sämtliche Chats gelöscht. In einem Artikel bei Nature beschreibt er, wie er verschiedenste Methoden ausprobierte, um wieder Zugriff auf die Daten und Chats zu bekommen. Auch ein Kontaktversuch mit OpenAI brachte dem Professor herzlich wenig. Laut Aussagen des Professors wurden die Daten dauerhaft gelöscht und konnten nicht wiederhergestellt werden. OpenAI berief sich dabei auf das Prinzip „Privacy by Design“, wonach Daten ohne eine Spur gelöscht werden. Für Bucher ist damit klar: „Wenn ein einziger Klick Jahre an Arbeit unwiderruflich löschen kann, kann ChatGPT meiner Meinung nach und aufgrund meiner Erfahrung nicht als vollständig sicher für den professionellen Gebrauch angesehen werden.“
Allerdings hat ChatGPT eine Backup-Funktion. Die KI bietet eine einfache Möglichkeit, alle Chats und Daten herunterzuladen. Unter den Einstellungen, im Bereich "Datenkontrollen", findet sich die Option "Daten exportieren". Nach wenigen Augenblicken oder Stunden erhält der Nutzer per E-Mail einen Downloadlink zu einer ZIP-Datei mit allen gespeicherten Informationen. Je nachdem, wie viele Daten man bei ChatGPT gespeichert hat, dauert das Zusammenfassen der Daten in einem Archiv entsprechend lange. Nachdem die Mail versendet wurde, ist der Downloadlink 24 Stunden lang gültig. Backups sind ein integraler Bestandteil der Arbeit mit Computern und sollten wohl auch bei KI-Tools nicht vernachlässigt werden.
Das beschriebene Szenario ließ sich in einem aktuellen Selbstversuch nicht bestätigen. Beim Deaktivieren der Datenfreigabe für das Training blieben die vorhandenen Chats unberührt und zugänglich. Bei Auswahl der Option zum Löschen aller Chats wurde eine explizite Warnmeldung angezeigt, die bestätigt werden müsste. Da der im Fachmagazin Nature geschilderte Datenverlust bereits im August stattfand, hat OpenAI seitdem eventuell Anpassungen an der Benutzeroberfläche und den Sicherheitsmechanismen vorgenommen, um ein versehentliches Löschen zu erschweren.









