Google hat im November mit dem Rollout der dritten Generation seines KI-Modells Gemini begonnen – und hat sich dabei hohe Ziele gesteckt. Gemini 3 Pro soll mit seinem neuen Deep-Thin-Modus eine „neue KI-Ära“ einläuten. Zwar gilt es angesichts starker Benchmark-Ergebnisse als eines der derzeit leistungsfähigsten Modelle – teilweise sogar vor GPT-5 –, scheint in puncto Sicherheit allerdings immer noch viel Luft nach oben zu haben. Darauf lässt zumindest ein Bericht des südkoreanischen Start-Ups Aim Intelligence schließen, das auf KI-Sicherheitsanalysen spezialisiert ist.
Aim Intelligence testete das Modell im Rahmen eines internen Experiments, das darauf abzielte, das Sprachmodell gezielt zu „jailbraken“ – also Sicherheits- und Ethikbarrieren gezielt zu umgehen. Laut dem südkoreanischen Maeil Business Newspaper waren die Ergebnisse alarmierend. Dem Bericht zufolge lieferte Gemini 3 Pro korrekte und praktisch umsetzbare Informationen zur Herstellung eines Pockenvirus, der als gefährliche Biowaffe eingesetzt werden könnte. Auch bei Anfragen zu selbstgebauten Sprengsätzen generierte das Modell detaillierte Hinweise. In weiteren Tests produzierte die KI eine satirische Präsentation mit dem ironischen Titel „Excused Stupid Gemini 3“, die unfreiwillig die eigenen Sicherheitslücken karikierte.
Anzumerken ist, dass hier keine vollständige Datenlage vorliegt. Aim Intelligence hat weder ein wissenschaftliches Paper noch einen technischen Bericht veröffentlicht. Es existieren keine verifizierbaren Informationen darüber, welche Prompts verwendet wurden, wie das Experiment strukturiert war oder ob die Ergebnisse reproduzierbar sind. Die bisherige Berichterstattung beruht ausschließlich auf dem genannten koreanischen Medienartikel. Wie es genau um die Sicherheit von Gemini 3 Pro bestellt ist, lässt sich anhand dieser Informationen nicht verifizieren.
KI gewinnt rasant an Leistungsfähigkeit. Wie sich anhand von weiteren Beispielen zeigt, scheinen Sicherheitsaspekte dabei allerdings nicht schritthalten zu können. Wie eine kürzlich veröffentlichte Studie zeigt, lassen sich KI-Modelle sogar mit Gedichten hacken. In einem jungen Beispiel eines auf OpenAIs GPT-4o basierenden KI-Teddybären für Kleinkinder wurden Antworten auf sexuelle Fragen gegeben. Auch die KI in Computerspielen lässt sich leicht überlisten. Alle diese Beispiele zeigen, dass KI-Systeme nicht nur besser, sondern vor allem sicherer werden müssen, bevor sie breit eingesetzt werden können.
Quelle(n)
Bildquelle: Google













