Sicherer KI-generierter Code

Wie man KI-generierten Code sichert CI/CD

Ihre Entwickler liefern Funktionen schneller als je zuvor. Gleichzeitig führen sie Sicherheitslücken in einem Tempo ein, für das Ihre aktuellen Tools nicht ausgelegt sind.

KI-gestützte Codierungswerkzeuge beschleunigen nicht nur die Entwicklung, sondern auch die Einführung unsicheren Codes. Georgia Tech Vibe Sicherheitsradar-Projekt Allein im März 2026 wurden 35 neue CVEs registriert, die direkt auf KI-Codierungswerkzeuge zurückzuführen sind, gegenüber 6 im Januar. Forscher schätzen, dass die tatsächliche Zahl im gesamten Open-Source-Ökosystem fünf- bis zehnmal höher liegt. CSA-Forschung Es wurde festgestellt, dass 62 % des von KI generierten Codes Konstruktionsfehler oder bekannte Sicherheitslücken aufweisen, selbst wenn die Entwickler die neuesten Basismodelle verwenden.

Dieses Problem lässt sich nicht lösen, indem man Entwickler zu mehr Tempo auffordert. Die Lösung liegt im Aufbau einer Sicherheitsinfrastruktur, die mit der rasanten Entwicklung von KI Schritt halten kann, und die meisten Teams verfügen noch nicht darüber.

Die Lücke, die die meisten Teams erst erkennen, wenn es zu spät ist

KI-Codierungswerkzeuge schaffen ein spezifisches Sicherheitsproblem, für das die traditionelle AppSec-Infrastruktur nicht ausgelegt ist: Hochgeschwindigkeits- und umfangreicher Code mit systematisch anderen Fehlermustern als von Menschen geschriebener Code.

Die meisten Teams entdecken diese Lücke auf dem falschen Weg, nämlich wenn eine CVE in der Produktionsumgebung landet, die ihr Scanner hätte erkennen müssen, oder wenn ein Geheimnis commitEin durch einen KI-gestützten Workflow erstellter Datensatz landet in den Händen eines Angreifers.

Ohne KI-spezifische Steuerung Mit Xygeni
Code-Schwachstellen Höhere Dichte, systematische Ausfallmuster Beim Schreiben in der IDE abgefangen, bevor commit
Enthüllung von Geheimnissen 2x höhere Rate bei KI-gestützten commits Kontinuierliches Scannen und automatische Sperrung über alle Ebenen hinweg.
Bösartige Abhängigkeiten KI schlägt Pakete ohne Sicherheitsprüfungen vor. Malware-Erkennung zum Veröffentlichungszeitpunkt, nicht zum Installationszeitpunkt.
Pipeline Risiko Keine Transparenz hinsichtlich des Verhaltens von Agentenwerkzeugen Verhaltensbaselines + Anomalieerkennung
Ergebnis Sicherheitsschulden häufen sich in KI-Geschwindigkeit an. Abdeckung, die mit der Entwicklungsgeschwindigkeit skaliert

Warum KI-generierter Code bei bestimmten Mustern versagt

Bevor wir uns mit den Steuerelementen befassen, ist es wichtig zu verstehen, warum KI-generierter Code anders fehlschlägt als von Menschen geschriebener Code, denn die Fehlermodi bestimmen, welche Steuerelemente tatsächlich von Bedeutung sind.

Mustervervollständigung gegenüber Sicherheitslogik

LLMs generieren Code, indem sie statistisch wahrscheinliche Fortsetzungen von Mustern vorhersagen, die sie in Trainingsdaten gefunden haben. Wenn diese Trainingsdaten Millionen von Beispielen unsicheren Codes enthalten, reproduziert das Modell diese Muster zuverlässig und flüssig.

Das Modell analysiert keine Sicherheitsaspekte, sondern vervollständigt Muster. Eine Anfrage zum Hinzufügen von Authentifizierung zu diesem Endpunkt erzeugt Code, der wie Authentifizierung aussieht und sich oft auch so verhält, aber möglicherweise die Token-Ablaufzeit auslässt, Autorisierungsprüfungen versäumt oder eine veraltete kryptografische Methode verwendet, da diese Auslassungen in den Trainingsdaten statistisch häufig vorkommen.

Strukturelle Korrektheit ohne semantische Sicherheit

Eine Analyse des Sicherheitsunternehmens Tenzai vom Dezember 2025 untersuchte 15 produktive Anwendungen, die mit fünf gängigen KI-Codierungswerkzeugen entwickelt wurden, und fand 69 Schwachstellen. Alle Anwendungen wiesen keinen CSRF-Schutz auf und hatten keine Sicherheitsheader konfiguriert. Jedes Werkzeug führte zu SSRF-Schwachstellen (Server-Side Request Forgery) – ein umfassendes Bild grundlegender Sicherheitslücken in allen 15 Anwendungen.

Das sind keine Sonderfälle. Es handelt sich um systematische Lücken in dem, worauf KI-Tools optimieren: funktionierenden Code, nicht sichere Standardeinstellungen.

Georgetown CSET fand unabhängig davon XSS-Schwachstellen in 86 % der KI-generierten Codebeispiele, die in fünf großen LLM-Programmen getestet wurden.

Beschleunigte Aufdeckung von Geheimnissen

KI-unterstützt commits enthüllen Geheimnisse mehr als doppelt so schnell wie nur Menschen commits. Die CSA-Forschungsbericht zur Sicherheit von Vibe Coding beziffert den Anteil für KI-gestützte Systeme auf 3.2 %. commitBei GitHub, das ausschließlich von Menschen genutzt wird, lag der Anteil bei 1.5 % und bei öffentlichen Konten bei 34 % gegenüber dem Vorjahr.

Der Mechanismus ist einfach: Entwickler, die in KI-Geschwindigkeit arbeiten, fügen Anmeldeinformationen häufig als Kontext in Eingabeaufforderungen ein, und KI-Tools übernehmen diese Anmeldeinformationen korrekt in die generierte Ausgabe. Entwickler, die KI-Code in Echtzeit überprüfen, achten auf die funktionale Korrektheit, nicht auf die Offenlegung von Geheimnissen.

Unsichtbare Architekturfehler

Herkömmliche Sicherheitstools eignen sich hervorragend zum Aufspüren bekannter Schwachstellen in statischem Code: SQL-Injection, XSS, unsichere Deserialisierung. Sie stoßen jedoch bei Designfehlern, fehlender Authentifizierung entlang ganzer API-Routen, fehlerhafter Zugriffskontrolllogik und einem Autorisierungsmodell, das einen sequenziellen Ablauf voraussetzt, aber in beliebiger Reihenfolge umgangen werden kann, an ihre Grenzen.

KI-generierter Code führt zu mehr Designfehlern, da KI-Tools auf Feature-Ebene und nicht auf Systemebene arbeiten. Die KI kennt das Sicherheitsmodell des umgebenden Systems nicht, sofern ihr dieser Kontext nicht explizit mitgeteilt wird, und die meisten Entwickler denken nicht daran, ihn bereitzustellen.

Wie Sie KI-generierten Code in Ihrem System absichern CI/CD Pipeline

1. KI-generierter Code sollte als nicht vertrauenswürdige Eingabe behandelt werden. SAST Schicht

Die wichtigste operative Änderung: Nicht reduzieren SAST Die Abdeckung ist aufgrund des von einer KI generierten Codes geringer. Machen Sie es genau umgekehrt. Jedes Team, das KI in großem Umfang einsetzt, sollte mit einem deutlich höheren Fundvolumen rechnen und seine Tools entsprechend konfigurieren.

In der Praxis bedeutet dies, dass die Aktivierung ermöglicht wird. SAST auf jedem commitNicht nur PRs. KI-Tools generieren schnell Code, und Entwickler commit schrittweise. Das Warten auf die PR-Prüfung bedeutet, dass sich die Ergebnisse ansammeln, bevor sie jemand prüft. Es bedeutet auch, dass… SAST Schweregradschwellen speziell für die Fehlermodi von KI-Code: fehlende Authentifizierungs- und Autorisierungsprüfungen, SSRF, CSRF, unsichere Deserialisierung und fest codierte Anmeldeinformationen, Schwachstellenklassen, die in CVSS nicht immer als kritisch eingestuft werden, aber durchweg ausnutzbar sind.

Die zentrale Herausforderung ist die Rate falsch positiver Ergebnisse. KI-Tools erzeugen schnell große Mengen an Code, und eine hohe Rate falsch positiver Ergebnisse ist problematisch. SAST Es werden so viele Ergebnisse generiert, dass Entwickler lernen, sie zu ignorieren. Das ist die sogenannte Alarmmüdigkeit, die den Sinn des Scannens völlig zunichtemacht.

Xygeni SAST wurde mit dem verglichen OWASP-Benchmark und erreichte eine Trefferquote von 100 % bei einer Falsch-Positiv-Rate von 16.7 %. In einer Umgebung, in der KI-generierter Code das Suchvolumen erhöht, ist diese Vorleistung von entscheidender Bedeutung.cisDie Ionisierung sorgt dafür, dass Erkenntnisse umgesetzt werden und nicht ignoriert werden. Erfahren Sie mehr über Xygeni SAST →

2. Scanne kontinuierlich nach Geheimnissen, nicht nur bei bestimmten Ereignissen. commit Zeit

Pre-commit hooks sind notwendig, aber nicht hinreichend. Entwickler, die KI-Tools schnell einsetzen, umgehen sie häufig. hooks, webbasierte KI-Editoren verwenden, die diese nicht unterstützen, oder Geheimnisse innerhalb von CI-Skripten anstatt im Anwendungscode generieren, wo hooks löst niemals aus.

Ein umfassendes Sicherheitskonzept für KI-gestützte Entwicklung ist erforderlich. pre-commit hooks Für Entwickler, die lokale KI-Tools verwenden, kontinuierliches Repository-Scanning über alle Branches hinweg einschließlich vollständiger Historie commit Abdeckung (gültige Geheimnisse aus alten commit(s sind immer noch ausnutzbar), pipeline Log-Scanning (KI-generierte CI-Skripte enthalten häufig Anmeldeinformationen als interpolierte Variablen, die in den Build-Logs ausgegeben werden) und automatischer Widerruf bei Erkennung, da das Zeitfenster zwischen Offenlegung und Entdeckung durch den Angreifer oft in Stunden und nicht in Tagen gemessen wird.

Xygeni Secrets Security erkennt über 800 Geheimnistypen in verschiedenen Repositories. pipeline Protokolle, IaC Dateien und Container-Images. --history Der Scanmodus deckt zwar technisch veraltete, aber immer noch gültige Geheimnisse auf – eine häufige Schwachstelle in KI-gestützten Arbeitsabläufen. Die Geheimnisse werden vor der Protokollierung oder dem Senden an die Plattform verschleiert, sodass der Erkennungsprozess selbst keine neuen Sicherheitslücken schafft. Automatische Widerrufsprozesse werden bei Erkennung ausgelöst. → Mehr erfahren

3. Anwenden SCA von Malware-Erkennung bis hin zu KI-gestützten Abhängigkeitsvorschlägen

KI-Programmierwerkzeuge schreiben nicht nur Code, sondern schlagen auch Abhängigkeiten vor. Wenn ein Entwickler einen Assistenten bittet, eine Bibliothek zum Parsen von JWTs hinzuzufügen, erhält er eine Paketempfehlung, die entweder ein legitimes Paket, ein Paket mit ähnlichem Namen (z. B. durch Tippfehler) oder ein Paket sein kann, das zum Zeitpunkt des Modelltrainings legitim war, aber inzwischen kompromittiert wurde.

Das CSA 2025-Schwachstellenforschung zu KI-generiertem Code Dokumentiert wird auch das sogenannte „Slopsquatting“, bei dem Angreifer die von KI-Tools erfundenen, halluzinierten Paketnamen registrieren und so eine Modellhalluzination direkt in einen Angriffsvektor für die Lieferkette verwandeln. Standard CVE-basiert SCA Erfasst keines davon.

Was Sie tatsächlich benötigen: Verhaltensbasierte Malware-Erkennung, die Pakete mit verdächtigen Installationsskripten, unerwarteten Netzwerkaufrufen oder verschleiertem Code kennzeichnet; Typosquatting- und Slopsquatting-Erkennung, die den gesamten Abhängigkeitsgraphen auf irreführend benannte Pakete analysiert; und CVE-Scanning mit Erreichbarkeitsfilterung, das anfällige Funktionen, die tatsächlich aufgerufen werden, von solchen unterscheidet, die importiert, aber nie ausgeführt werden.

Xygeni SCA kombiniert Echtzeit-Malware-Erkennung über die Malware-Frühwarnung (MEW) Die Engine durchsucht npm, PyPI, Maven, NuGet, RubyGems und andere Registries zum Zeitpunkt der Veröffentlichung, nicht nur zum Zeitpunkt der Installation. Scanner für Verdachtsabhängigkeiten Das Programm erkennt Typosquatting, Abhängigkeitsverwirrung und verdächtige Installationsskripte durch die Analyse des gesamten Abhängigkeitsgraphen. So funktioniert es →

4. Sicherheit durchsetzen guardrails in England, pipelinenicht nur bei Code-Reviews

Code-Reviews sind zu langsam und zu uneinheitlich, um als primäre Sicherheitsmaßnahme für KI-generierten Code zu dienen. Entwickler, die unter Zeitdruck KI-Ausgaben prüfen, kontrollieren zunächst die funktionale Korrektheit. Die Sicherheitskorrektheit wird, wenn überhaupt, erst im zweiten Schritt geprüft.

Pipeline-Ebene guardrails Anforderungen automatisch durchsetzen: Builds blockieren, die neue kritische Anforderungen einführen SAST Werden Ergebnisse oberhalb eines konfigurierbaren Schwellenwerts gefunden, wird die Bereitstellung blockiert, wenn neue Geheimnisse entdeckt werden. commitDie Abhängigkeitsrichtlinie wird durchgesetzt, indem Pakete blockiert werden, die Malware-Prüfungen nicht bestehen oder nicht auf einen exakten Hashwert festgelegt sind, und es wird Folgendes benötigt: SBOM Generierung für Releases, die KI-gestützten Code enthalten.

Das wichtigste Gestaltungsprinzip: guardrails Es sollte zu Blockierungen oder Warnungen kommen, nicht nur zu Meldungen. Eine Meldung, die nichts blockiert, vermittelt Entwicklern den Eindruck, dass Meldungen getrost ignoriert werden können.

Xygeni DevAI ist ein agentischer Sicherheitskopilot verfügbar als VS-Code-Erweiterung , IntelliJ/JetBrains-Plugin das inkrementell ausgeführt wird SAST Scannt während der Codeentwicklung, erklärt Angriffspfade für erkannte Schwachstellen und liefert vom Xygeni MCP Server validierte Lösungsvorschläge hinsichtlich Risiko, Richtlinien und Auswirkungen auf inkompatible Änderungen. Erkennung von Geheimnissen, SCA und IaC Alle Scans werden in derselben IDE-Sitzung ausgeführt. → Mehr erfahren

6. Überwachung auf anomales Verhalten von KI-Codierungswerkzeugen

KI-gestützte Agentenwerkzeuge, also Werkzeuge, die autonom in Ihrer Umgebung agieren und nicht nur Vorschläge generieren, schaffen eine neue Angriffsfläche. Ein agentenbasiertes Codierungswerkzeug mit Schreibzugriff auf das Repository, pipeline Der Zugriff auf Trigger oder Geheimnisse stellt im Falle einer Kompromittierung ein hochkarätiges Ziel dar.

CVE-2025-54135 (CurXecute), eine Sicherheitslücke im Code-Editor Cursor AI, die die Ausführung beliebigen Codes aus der Ferne ermöglichte, wurde Anfang 2026 bekannt gegeben. Georgia Tech Vibe Sicherheitsradar Forschungsarbeiten stellen fest, dass sich die Angriffsflächen rapide vergrößern, da KI-Tools immer autonomer werden.

Verhaltensüberwachung der KI-Tool-Aktivität in Ihrem pipeline sollte auf unerwartete Änderungen achten CI/CD Workflow-Konfigurationsdateien (eines der deutlichsten Anzeichen für ein kompromittiertes KI-Tool oder einen Prompt-Injection-Angriff), KI-Codierungstool-Prozesse, die während der Build-Zeit Netzwerk-Anfragen an unerwartete Ziele senden, ungewöhnliche Zugriffsmuster auf Geheimnisspeicher von Entwickler-Workstations und neue Abhängigkeiten, die von KI-Tools eingeführt wurden und in früheren Builds nicht vorhanden waren.

Schicht Kontrolle Priorität
Code SAST auf jedem commitKonfiguration mit niedriger FPR Kritische
Code Feedback zur IDE-Sicherheit in VS Code / IntelliJ Hoch
Secrets Pre-commit hooks + kontinuierliches Scannen von Repository-Daten Kritische
Secrets Git-Verlaufssuche nach gültigen Legacy-Geheimnissen Kritische
Secrets Automatischer Widerruf bei Erkennung Kritische
Abhängigkeiten SCA mit Malware- und Slopsquatting-Erkennung Kritische
Abhängigkeiten Erreichbarkeitsgefilterte CVE-Priorisierung Hoch
Pipeline Bausteine ​​auf neuen kritischen Erkenntnissen Hoch
Pipeline Durchsetzung der Abhängigkeitsrichtlinie während der Build-Zeit Hoch
Pipeline SBOM Generierung für KI-gestützte Veröffentlichungen Medium
Agentische Werkzeuge Verhaltensüberwachung der Aktivität von KI-Tools Hoch
Agentische Werkzeuge Zugriff mit minimalen Berechtigungen für KI-Codierungswerkzeuge Hoch

Wie Xygeni KI-generierten Code durchgängig absichert

Die Absicherung von KI-generiertem Code erfordert eine umfassende Abdeckung des gesamten Systems. SDLCVom Moment der Annahme eines Vorschlags durch einen Entwickler bis zum Produktionsstart des Produkts – Punktuelle Tools, die nur eine Ebene abdecken, lassen Lücken, die KI-gestützte Entwicklungsprozesse zuverlässig aufdecken.

Praktikum Xygeni-Fähigkeit Was es fängt
In der IDE DevAI + MCP-Server Schwachstellen zum Zeitpunkt des Schreibens, bevor commit
At commit SAST + Geheime Sicherheit Codefehler, fest codierte Zugangsdaten, ungeschützte API-Schlüssel
Beim Bauen SCA mit Malware-Erkennung + Erreichbarkeit Bösartige oder anfällige, von KI vorgeschlagene Abhängigkeiten
In pipeline CI/CD Sicherheit + Anomalieerkennung Unsichere Builds, Kompromittierung von Agententools, eingeschleuste Workflows
Nach der Bereitstellung DAST + ASPM Validierung der Ausnutzbarkeit zur Laufzeit, einheitliche Risikobewertung

Der entscheidende Unterschied liegt in der Intelligenzschicht, die all diese Komponenten miteinander verbindet. Der MCP-Server von Xygeni stellt sicher, dass der von DevAI in der IDE generierte Korrekturvorschlag hinsichtlich Richtlinienkonformität, Risiko inkompatibler Änderungen und organisatorischem Kontext geprüft wird, bevor er den Entwickler erreicht. KI-gestützte Fehlerbehebung mit guardrails, nicht mit deaktivierter Sicherung.

Fazit

KI-Codierungswerkzeuge generieren einen bedeutenden und wachsenden Anteil an enterprise Sie führen systematisch Sicherheitslücken in den wichtigsten Bereichen ein: fehlende Authentifizierung, offengelegte Geheimnisse, unsichere Abhängigkeiten und Designfehler, die statische Scanner übersehen.

Die Lösung besteht nicht darin, den Einsatz von KI-Tools einzuschränken. Sie besteht darin, build security Eine Infrastruktur, die mit der Geschwindigkeit der KI-Entwicklung skaliert. Teams, denen dies gelingt, liefern KI-gestützte Funktionen schneller und sicherer als Teams, die KI-Code wie von Menschen geschriebenen Code behandeln und dabei eine etwas höhere Fehlerrate in Kauf nehmen.

Das ist es nicht. Und dein pipeline muss den Unterschied kennen.

👉 Starten Sie Ihre kostenlose Testversion und scannen Sie Ihr erstes KI-gestütztes Repository in wenigen Minuten, keine Kreditkarte erforderlich.

👉 Kontakt und sehen Sie, wie Xygeni zu Ihrem spezifischen KI-Entwicklungs-Stack passt.

👉 Laden Sie das Whitepaper herunterSichern Sie Vibe Coding, bevor es zum größten KI-Risiko Ihres Unternehmens wird.

Verwandte lesen:

Über den Autor

Mitbegründer & CTO

Fatima Said spezialisiert sich auf entwicklerorientierte Inhalte für AppSec, DevSecOps und software supply chain securitySie wandelt komplexe Sicherheitssignale in klare, umsetzbare Anweisungen um, die Teams dabei helfen, schneller Prioritäten zu setzen, Störungen zu reduzieren und sichereren Code zu liefern.

SCA-Tools-Software-Zusammensetzungs-Analyse-Tools
Priorisieren, beheben und sichern Sie Ihre Softwarerisiken
7-Tage kostenlose Testversion
Keine Kreditkarte erforderlich

Sichern Sie Ihre Softwareentwicklung und -bereitstellung

mit der Xygeni-Produktsuite