Vibe Coding unter Beschuss: KI-generierter Code produziert immer mehr Sicherheitslücken
74 dokumentierte CVEs, eine Sicherheits-Bestehensrate von 55 Prozent und ein NCSC-Chef, der vor "untragbaren Risiken" warnt. Die Produktivitätsversprechen von KI-Coding-Tools sind real, aber der Preis dafür wird gerade sichtbar.
KI-Coding-Tools wie Claude Code und GitHub Copilot produzieren messbare Sicherheitslücken in Produktionscode. Forscher der Georgia Tech haben seit Mai 2025 insgesamt 74 CVEs dokumentiert, die direkt auf Vibe Coding zurückgehen, allein im März 2026 waren es 35. Veracodes Spring-2026-Studie zeigt, dass die Sicherheits-Bestehensrate von KI-generiertem Code bei rund 55 Prozent stagniert, trotz massiver Verbesserungen bei Syntax und Funktionalität. Das britische NCSC fordert Unternehmen auf, deterministische Sicherheitskontrollen um KI-generierten Code zu bauen, statt darauf zu vertrauen, dass eine KI die andere kontrolliert.
Vibe Coding produziert echte Sicherheitslücken, und die Zahlen steigen
KI-Coding-Tools liefern echte Produktivitätsgewinne. Entwickler berichten von enormen Zeitersparnissen. Doch parallel dazu wächst ein Problem, das viele Unternehmen noch nicht auf dem Schirm haben: Vibe Coding schleust messbare Sicherheitslücken in Produktionssysteme ein.
Forscher des Georgia Tech SSLab betreiben seit Mai 2025 den "Vibe Security Radar", ein systematisches Tracking von CVEs (Common Vulnerabilities and Exposures), die direkt auf KI-Coding-Tools zurückzuführen sind. Die Ergebnisse sind alarmierend.
Die tatsächliche Zahl liegt nach unserer Schätzung 5- bis 10-mal höher, da viele KI-Tools keine Metadaten-Spuren in Commits hinterlassen.
Bei der Aufschlüsselung nach Tools zeigt sich: Claude Code ist mit 49 CVEs (davon 11 als kritisch eingestuft) am häufigsten vertreten, gefolgt von GitHub Copilot mit 15 CVEs. Diese Zahlen spiegeln allerdings nicht die tatsächliche Risikoverteilung wider. Claude Code hinterlässt als CLI-Tool deutliche Metadaten-Spuren in Commits. Copilots Inline-Vorschläge dagegen sind in der Commit-Historie unsichtbar.
Warum KI-Tools unsicheren Code schreiben
Die Sicherheitsprobleme von KI-generiertem Code sind kein vorübergehender Mangel, der sich mit der nächsten Modellgeneration von selbst löst. Sie haben strukturelle Ursachen.
Veracodes Spring-2026-Studie liefert die zentrale Erkenntnis: Die Sicherheits-Bestehensrate von KI-generiertem Code liegt bei rund 55 Prozent , praktisch identisch mit dem Wert von vor zwei Jahren. Syntax und Funktionalität haben sich massiv verbessert. Die Sicherheit nicht.
LLMs lernen aus öffentlichen Code-Repositories, die historisch unsichere Muster enthalten. String-Concatenation für SQL-Queries, fehlende Input-Validierung, veraltete Authentifizierungsmuster - all das wird reproduziert, weil es statistisch häufig vorkommt.
Java-Code ist besonders betroffen. Modelle reproduzieren Legacy-Patterns, die vor modernen Security-Frameworks entstanden sind. Ein LLM kann nicht beurteilen, ob ein Pattern sicher ist. Es generiert, was wahrscheinlich ist, nicht was korrekt ist.
Reasoning-Modelle wie GPT-5 mit erweitertem Reasoning erreichen 70 bis 72 Prozent . Besser, aber immer noch weit entfernt von dem Niveau, das für Produktionscode in regulierten Branchen erforderlich wäre.
Das Vertrauens-Paradox: Mehr Nutzung, weniger Vertrauen
Die Entwickler-Community nutzt KI-Tools intensiv und verliert gleichzeitig das Vertrauen in deren Output. Das ist kein Widerspruch, sondern Ausdruck wachsender Erfahrung.
Stack Overflows Developer Survey 2025, basierend auf über 49.000 Teilnehmern, zeichnet ein klares Bild: 84 Prozent der Entwickler nutzen KI-Tools (2024: 76 Prozent), aber nur noch 29 Prozent vertrauen dem Output (2024: 40 Prozent). 45 Prozent berichten, dass das Debuggen von KI-generiertem Code zeitaufwändiger ist als eigenes Schreiben.
Vibe Coding, die Praxis, ganze Projekte ohne menschliche Code-Review per KI zu erstellen, verbreitet sich besonders unter weniger erfahrenen Entwicklern, also genau der Gruppe, die Sicherheitsprobleme am wenigsten erkennt.
Für Unternehmen ist das ein doppeltes Risiko: Die Nutzung steigt, die kritische Prüfung sinkt, und die Gruppe, die am intensivsten auf KI-Code vertraut, hat am wenigsten Erfahrung, um Fehler zu erkennen.
Was das britische NCSC fordert, und warum das für Deutschland relevant ist
Das UK National Cyber Security Centre (NCSC) hat auf der RSA Conference am 24. März 2026 Vibe Coding als zentrales Sicherheitsthema adressiert. Die Empfehlungen sind direkt auf deutsche Unternehmen übertragbar.
KI-generierter Code stellt aktuell untragbare Risiken dar, bietet aber auch die Chance, Software sicherer zu machen als den manuellen Status quo.
Secure-by-Default
Sicherheitsmechanismen direkt in KI-Coding-Tools einbauen, nicht als nachträgliche Prüfung
Trust but Verify
KI-generierten Code grundsätzlich als nicht vertrauenswürdig behandeln und systematisch prüfen
Deterministische Kontrollen
Regelbasierte Sicherheitsprüfungen um KI-Code bauen statt KI-kontrolliert-KI-Ansätze
Parallel zur Vibe-Coding-Debatte zeigt sich ein weiteres Problem: In der ersten Märzwoche 2026 wurden über 30 Schwachstellen im Model Context Protocol (MCP) innerhalb von 60 Tagen gemeldet. Die KI-Infrastruktur selbst wird zum Angriffsziel.
Relevanz für deutsche Unternehmen
KI-generierter Code in kritischer Infrastruktur (Energie, Finanzen, Gesundheit) fällt potenziell unter die Hochrisiko-Kategorie des EU AI Act . Zusammen mit der NIS2-Richtlinie und dem BSI-Grundschutz entsteht ein regulatorisches Umfeld, das Unternehmen zwingt, KI-generierten Code zu dokumentieren und rückverfolgbar zu machen.
Herausforderungen und Risiken
Die Situation ist komplexer als ein einfaches "KI-Code ist unsicher". Unternehmen stehen vor einem echten Dilemma zwischen Produktivitätsgewinnen und Sicherheitsrisiken.
Das Produktivitäts-Dilemma
Die Business-Vorteile von Vibe Coding sind real. Ein NCSC-Beispiel beschreibt ein Startup, das ein komplettes SaaS-Produkt in wenigen Stunden durch eine KI-codierte Alternative ersetzte. Die Frage ist nicht, ob Unternehmen KI-Coding-Tools nutzen, sondern wie sie es sicher tun.
Die Forderung "jeder KI-Code muss von Menschen reviewed werden" stößt bereits an praktische Grenzen. Wenn die Hälfte einer Codebasis maschinengeneriert ist, fehlt schlicht die menschliche Kapazität für vollständige Reviews.
Shadow AI im Coding
38 Prozent der Mitarbeiter teilen vertrauliche Firmendaten mit nicht genehmigten KI-Systemen. Im Coding-Kontext bedeutet das: Entwickler nutzen KI-Tools, die nicht im offiziellen Security-Stack erfasst sind, und der generierte Code fließt ungeprüft in Produktionssysteme.
Die CVE-Tracking-Methodik selbst hat Grenzen. Viele KI-Tools hinterlassen keine Metadaten in Commits. Copilots Inline-Vorschläge sind unsichtbar. Open-Source-Projekte, die stark auf Vibe Coding setzen, haben hunderte Sicherheitshinweise, aber die KI-Spuren werden oft bewusst von den Autoren entfernt. Die dokumentierten 74 CVEs sind mit hoher Wahrscheinlichkeit nur die Spitze eines wesentlich größeren Problems.
Was Unternehmen jetzt tun sollten
Wer KI-Coding-Tools im Unternehmen einsetzt, braucht konkrete Maßnahmen. Warten auf perfekte Tools ist keine Option, denn die Nutzung findet bereits statt.
Sicherheitsanalyse in die KI-Coding-Pipeline einbauen
SAST- und DAST-Tools auf KI-generierten Code anwenden, bevor er in Produktion geht. Diese Prüfung muss automatisiert in der CI/CD-Pipeline laufen, nicht als optionaler manueller Schritt.
Governance-Framework für KI-Coding aufsetzen
Definieren, welche Tools erlaubt sind, welche Code-Bereiche KI-generiert sein dürfen und welche nicht. Besonders sicherheitskritische Bereiche wie Authentifizierung, Kryptografie und Datenbankzugriffe verdienen Sonderregeln.
KI-generierten Code dokumentieren und rückverfolgbar machen
Für regulierte Branchen (Energie, Finanzen, Gesundheit) ist das keine Empfehlung, sondern Pflicht. EU AI Act und NIS2 fordern Transparenz. Metadaten in Commits, Labels in Issue-Trackern und Dokumentation in Code-Reviews schaffen die nötige Nachvollziehbarkeit.
Deterministische Kontrollen statt KI-kontrolliert-KI
Das NCSC-Prinzip übernehmen: Regelbasierte, deterministische Sicherheitsprüfungen um KI-generierten Code bauen. Nicht darauf vertrauen, dass ein zweites KI-Modell die Fehler des ersten findet.
Pilotprojekte mit messbaren Sicherheitsmetriken
Die Vulnerability-Rate von KI-generiertem Code systematisch tracken, nicht nur Produktivitätsgewinne messen. Nur wer beide Seiten misst, kann fundierte Entscheidungen über den Einsatz von KI-Coding-Tools treffen.
Entwickler in kritischer Bewertung schulen
Nicht in der Bedienung der Tools, sondern in der kritischen Bewertung des Outputs. Entwickler müssen lernen, KI-generierten Code mit dem gleichen Misstrauen zu lesen wie ungeprüften Code eines unbekannten Kontributors.
KI-Coding-Tools sind keine sichere Blackbox. Sie sind mächtige Werkzeuge mit dokumentierten Schwachstellen. Die 74 CVEs des Georgia Tech SSLab, die stagnierende 55-Prozent-Sicherheitsrate von Veracode und die NCSC-Warnung senden ein klares Signal: Unternehmen, die KI-Coding-Tools einsetzen, brauchen eine Sicherheitsstrategie, die über "wir vertrauen dem Tool" hinausgeht. Die Produktivitätsgewinne sind real. Die Risiken auch.
Weiterführende Informationen
Häufig gestellte Fragen
Forscher der Georgia Tech haben seit Mai 2025 insgesamt 74 CVEs dokumentiert, die direkt auf KI-Coding-Tools zurückgehen. Die häufigsten Schwachstellen sind fehlende Input-Validierung, unsichere SQL-Queries durch String-Concatenation und fehlerhafte Authentifizierungsmuster. Die tatsächliche Zahl liegt nach Schätzung der Forscher 5- bis 10-mal höher, da viele Tools keine Metadaten-Spuren hinterlassen.
Laut Veracodes Spring-2026-Studie liegt die Sicherheits-Bestehensrate von KI-generiertem Code bei rund 55 Prozent, praktisch unverändert seit zwei Jahren. Reasoning-Modelle erreichen 70 bis 72 Prozent, was besser ist, aber immer noch bedeutet, dass jedes dritte Code-Snippet eine Schwachstelle enthält.
NCSC-Chef Richard Horne hat Vibe Coding auf der RSA Conference 2026 als zentrales Sicherheitsthema adressiert. Die drei Kernempfehlungen: Secure-by-Default in KI-Tools einbauen, einen Trust-but-Verify-Ansatz verfolgen und deterministische Architekturen nutzen statt KI-kontrolliert-KI-Ansätze.
Der EU AI Act verlangt ab August 2026 Compliance für Hochrisiko-KI-Systeme. KI-generierter Code in kritischer Infrastruktur wie Energie oder Finanzen fällt potenziell in diese Kategorie. Zusammen mit BSI-Grundschutz und der NIS2-Richtlinie verschärfen sich die Anforderungen an die Sicherheit von Software erheblich.
Sechs konkrete Maßnahmen: SAST/DAST-Tools in die CI/CD-Pipeline einbauen, ein Governance-Framework für KI-Coding aufsetzen, KI-generierten Code dokumentieren und rückverfolgbar machen, deterministische Kontrollen statt KI-kontrolliert-KI nutzen, Pilotprojekte mit messbaren Sicherheitsmetriken aufsetzen und Entwickler in kritischer Bewertung des Outputs schulen.
Stack Overflows Developer Survey 2025 zeigt: 84 Prozent der Entwickler nutzen KI-Tools, aber nur 29 Prozent vertrauen dem Output (2024: 40 Prozent). Der Hauptgrund ist wachsende Erfahrung: 66 Prozent berichten von Lösungen, die "fast richtig, aber nicht ganz" sind. 45 Prozent sagen, dass das Debuggen von KI-Code zeitaufwändiger ist als eigenes Schreiben.
Laut dem Georgia Tech SSLab Vibe Security Radar ist Claude Code mit 49 CVEs (davon 11 kritisch) am häufigsten vertreten, gefolgt von GitHub Copilot mit 15 CVEs. Die Zahlen spiegeln allerdings nicht die tatsächliche Risikoverteilung wider: Claude Code hinterlässt als CLI-Tool deutliche Metadaten-Spuren, während Copilots Inline-Vorschläge in der Commit-Historie unsichtbar sind.