Laut dem kürzlich veröffentlichten „2025 GenAI Code Security Report“ von Veracode, einem führenden Unternehmen im Bereich des Application Risk Managements, führt die Verwendung von KI-generiertem Code in 45 Prozent der Fälle zur Einführung neuer Sicherheitslücken. Die Studie, die 80 spezifische Codierungsaufgaben über mehr als 100 LLMs hinweg untersuchte, hebt hervor, dass die Sicherheitsleistung der KI-Modelle nicht mit ihrer Fähigkeit zur Generierung syntaktisch korrekten Codes Schritt hält.
Besorgniserregende Muster
Die Veracode-Studie offenbart ein alarmierendes Muster: In 45 Prozent der Fälle entscheiden sich GenAI-Modelle für unsichere Codierungsmethoden. Jens Wessling von Veracode warnt in diesem Zusammenhang vor dem sogenannten „Vibe Coding“, bei dem Entwickler sicherheitsrelevante Entscheidungen der KI überlassen. Die Modelle treffen laut Wessling fast in der Hälfte der Fälle falsche Entscheidungen – ohne erkennbare Lernkurve. Besonders kritisch ist dies, weil KI nicht nur fehlerhaften Code erzeugt, sondern auch von Angreifern genutzt werden kann, um Schwachstellen automatisiert zu identifizieren und Exploits zu generieren.
Java mit höchsten Risiken, Cross-Site Scripting massiv betroffen
Veracode analysierte mithilfe des MITRE-CWE-Systems KI-generierten Code und stützte sich dabei auf Daten aus dem GenAI-Projekt der OWASP Foundation. Demnach führen LLMs in 45 Prozent der Fälle sicherheitsrelevante Schwachstellen ein. Besonders fehleranfällig war Java mit einer Fehlerrate von über 70 Prozent, gefolgt von Python, C# und JavaScript mit jeweils 38 bis 45 Prozent.
Cross-Site Scripting und Log Injection
Die Studie zeigt zudem, dass LLMs in 86 Prozent der Fälle Cross-Site Scripting (CWE-80) und in 88 Prozent der Fälle Log Injection (CWE-117) nicht absichern konnten.
Wessling kommentierte:
„Unsere Forschung zeigt, dass Modelle besser darin werden, präzise zu codieren, aber sich bei der Sicherheit nicht verbessern. Wir fanden auch heraus, dass größere Modelle nicht signifikant besser abschneiden als kleinere Modelle, was darauf hindeutet, dass dies ein systemisches Problem und kein LLM-Skalierungsproblem ist.“
Veracode rät: KI-generierten Code mit smarten Tools absichern
Veracode empfiehlt angesichts dieser Erkenntnisse umfassende Risikomanagementprogramme, die Codequalitätsprüfungen und automatisierte Korrekturen direkt in den Entwicklungsworkflow integrieren. Dazu gehören der Einsatz von KI-gestützten Tools wie Veracode Fix, statische Analyse und Software Composition Analysis (SCA) zur frühzeitigen Erkennung und Behebung von Schwachstellen.






















