Bitcoin Blockchain-Technologie

Große Sprachmodelle produzieren von Haus aus unsicheren Code: Eine Sicherheitsanalyse

Bitcoin Blockchain-Technologie
Popular LLMs Found to Produce Vulnerable Code by Default

Eine umfassende Analyse zeigt, dass populäre Large Language Models (LLMs) standardmäßig unsicheren Code generieren. Die Studie beleuchtet die Risiken für Entwickler und die Notwendigkeit von sicheren Prompt-Techniken sowie Sicherheitsmaßnahmen im Umgang mit KI-generiertem Code.

In der heutigen schnelllebigen Welt der Softwareentwicklung gewinnen Large Language Models (LLMs) immer mehr an Bedeutung. Tools wie OpenAIs GPT, Anthropics Claude und Googles Gemini unterstützen Entwickler dabei, Code schneller zu generieren und innovative Anwendungen zu schaffen. Doch eine aktuelle Studie von Backslash Security offenbart eine ernste Sicherheitslücke: Die meisten dieser populären KI-Modelle produzieren standardmäßig unsicheren, anfälligen Code. Diese Erkenntnis wirft grundlegende Fragen zur Nutzung von KI in der Softwareentwicklung auf und macht deutlich, dass trotz der Fortschritte in der KI-Technologie Sicherheitsaspekte keinesfalls vernachlässigt werden dürfen.Die Untersuchung von Backslash Security umfasst sieben aktuelle Versionen der führenden LLMs, darunter verschiedene Modelle von OpenAI, Anthropic und Google.

Dabei wurden unterschiedliche Arten von Aufforderungen (Prompts) verwendet, von simplen bis hin zu spezifisch sicherheitsorientierten Anforderungen. Das Ergebnis ist alarmierend: Bei einfachen, sogenannten naiven Prompts generierten alle getesteten Modelle Code, der Schwachstellen aufweist – und zwar bei mindestens vier der zehn häufigsten Schwachstellen aus der Common Weakness Enumeration (CWE) Kategorie. Diese reichen von Command Injections über Cross-Site Scripting (XSS) bis hin zu unsicheren Datei-Uploads und Path Traversal.Ein besonders ernüchterndes Ergebnis betrifft OpenAIs GPT-4o Modell. Bei Verwendung von naiven Prompts waren gerade einmal 10 Prozent der erzeugten Codes ohne Sicherheitslücken.

Selbst als in den Prompts aufgefordert wurde, „sicheren Code“ zu erzeugen, stieg die Erfolgsquote nur auf 20 Prozent. Erst durch das explizite Einfordern der Einhaltung von OWASP Best Practices konnte die Quote auf etwa 65 Prozent verbessert werden. Vergleichsweise besser schnitt das Claude 3.7-Sonnet Modell von Anthropic ab, das bei naiven Prompts bereits in 60 Prozent der Fälle sicheren Code lieferte. Interessanterweise erreichte es bei der generischen Aufforderung „sicheren Code schreiben“ sogar eine perfekte Sicherheitsquote von 100 Prozent.

Dennoch sind diese Ergebnisse kein Grund zur Entwarnung. Die Tatsache, dass fünf von sieben getesteten LLMs selbst bei sicherheitsorientierten Aufforderungen noch Schwachstellen produzierten, verdeutlicht die noch bestehende Reifeproblematik der KI-generierten Softwareentwicklung im Bereich Sicherheit. Entwickler, die sich auf diese Tools verlassen, riskieren, unbeabsichtigt unsicheren Code in ihre Anwendungen einzubringen. Besonders gefährlich ist dies, wenn wenig erfahrene Entwickler naïve oder unzureichend spezifizierte Prompts verwenden und die Sicherheitsprüfungen im Nachhinein unzureichend sind.Eine überraschende Entdeckung der Studie war, dass keiner der LLMs anfällig für SQL-Injection-Angriffe war – einer der bekanntesten und häufigsten Schwachstellen in Open-Source-Code.

Die Forscher mutmaßen, dass die Trainingsdaten und Algorithmen dieser KI darauf ausgelegt sind, gerade diese spezifische Schwachstelle zu vermeiden. Dies zeigt, dass gezielte Trainingsmethoden durchaus Wirkung zeigen, jedoch offenbar noch nicht auf alle relevanten Sicherheitslücken ausgeweitet wurden.Die Gefahr liegt vor allem in der Kombination aus der stark gestiegenen Verbreitung und bequemen Nutzung von KI-gestützter Programmierung und der bisher unzureichenden Kontrolle der generierten Codequalität. Entwickler sind inzwischen oft auf schnelle Ergebnisse angewiesen, die KI-Modelle liefern. Dabei sind sie nicht zwangsläufig Experten für IT-Security oder Prompt Engineering – dem Wissen um die Kunst, KI-Modelle durch präzise Eingaben zu steuern.

Diese Lücke kann zu einer Flut von anfälligem Code führen, der Hackerangriffe erleichtert und langfristig hohe Kosten für Unternehmen verursacht.Backslash Security betont, dass die Industrie hier in einer entscheidenden Phase steht, in der konsequente Sicherheitsmaßnahmen unablässig sind. Sicherheits-Teams müssen strenge Prompt-Richtlinien entwickeln und eng mit Entwicklern zusammenarbeiten, um sicherzustellen, dass KI-unterstützter Code von Anfang an sicher gestaltet wird. Dazu können spezielle Sicherheitstools gehören, die generierten Code automatisiert auf Schwachstellen prüfen, bevor er in Produktivumgebungen eingesetzt wird. Zudem bedarf es weiterer Forschung zur Verbesserung von LLM-Trainingsprozessen, die Sicherheit von Grund auf mitdenken.

Die beschriebenen Herausforderungen bieten jedoch auch große Chancen. Wenn Sicherheitsexperten und Entwickler diese Technologien verantwortungsvoll nutzen, können KI-Modelle künftig dazu beitragen, Sicherheitsstandards automatisch einzuhalten und den gesamten Entwicklungsprozess sicherer zu machen. Dies könnte letztlich zu einem Durchbruch führen, bei dem sichere Software schneller und mit weniger menschlichem Aufwand entsteht. Dafür ist es unerlässlich, dass die LLM-Anbieter weiterhin an Sicherheitsfeatures arbeiten und dass Anwender sich der Risiken bewusst sind und präzise Sicherheitsanforderungen formulieren.Die Debatte um KI und Sicherheit ist also keineswegs abgeschlossen, sondern wird in den nächsten Jahren entscheidend bleiben.

Die zunehmende Automatisierung durch generative KI bringt sowohl Vorteile als auch Risiken mit sich. Nur durch ein gemeinsames Verständnis von Sicherheit aufseiten der KI-Hersteller, Entwickler und Sicherheitsfachleute kann gewährleistet werden, dass die vielgepriesenen Effizienzgewinne nicht durch vermehrte Schwachstellen erkauft werden.Zusammenfassend zeigt die Analyse von Backslash Security, dass derzeit kein großes Sprachmodell von sich aus sicheren Code garantiert. Entwickler sollten daher niemals blind auf die von KI generierte Programmierung vertrauen, sondern immer eine sorgfältige Überprüfung und Absicherung vornehmen. Indem sichere Prompttechniken angewandt und Sicherheitsprüfungen intensiviert werden, lässt sich das Risiko zumindest minimieren.

Gleichzeitig bleibt der Druck auf die Anbieter und Anwender bestehen, KI-gestützte Softwareentwicklung sicherer und vertrauenswürdiger zu gestalten. Nur so kann das enorme Potenzial von LLMs sinnvoll und nachhaltig genutzt werden, ohne neue Sicherheitslücken zu öffnen.

Automatischer Handel mit Krypto-Geldbörsen Kaufen Sie Ihre Kryptowährung zum besten Preis

Als Nächstes
A shutdown story for an AI app startup
Mittwoch, 21. Mai 2025. Wie ein KI-Startup mit Godmode das Scheitern annahm und neu durchstartete

Eine tiefgehende Analyse der Herausforderung und Lektionen eines innovativen KI-Startups, das trotz vielversprechender Technologie und Kundenfeedback den Betrieb einstellen musste. Die Geschichte zeigt die Hürden im Enterprise-Vertrieb, Marktpositionierung und die komplexe Realität von Automatisierung im Vertrieb.

Using JWTs in Python Flask REST Framework
Mittwoch, 21. Mai 2025. Sichere Authentifizierung in Python Flask REST APIs mit JWT: Ein umfassender Leitfaden

Ein detaillierter Leitfaden zur Implementierung von JSON Web Tokens (JWT) in Python Flask REST Frameworks, der den sicheren Umgang mit Authentifizierungs- und Autorisierungsmethoden in modernen Webanwendungen erläutert. Erfahren Sie, wie Sie JWT nutzen, um skalierbare, effiziente und geschützte APIs zu erstellen und Benutzerrollen sicher zu verwalten.

Bootable Clone for M1 Max MacBook Pro
Mittwoch, 21. Mai 2025. Bootfähige Clone für das M1 Max MacBook Pro: Moderne Backup-Strategien und Herausforderungen

Erfahren Sie, warum das Erstellen bootfähiger Klone bei M1 Max MacBook Pro Modellen komplexer geworden ist, welche Alternativen es gibt und wie Sie Ihre Daten effektiv sichern können, um im Ernstfall schnell wieder arbeitsfähig zu sein.

Building an Efficient GPU Server with Nvidia GeForce RTX 4090s/5090s
Mittwoch, 21. Mai 2025. Effiziente GPU-Server mit Nvidia GeForce RTX 4090 und 5090: High-Performance für KI und Forschung

Ein umfassender Leitfaden zum Aufbau eines leistungsstarken GPU-Servers mit Nvidia GeForce RTX 4090 und 5090. Professionelle Einblicke in Hardwareauswahl, Serverkonfiguration und Anwendungen für KI-Modelltraining und lokale Inferenz bieten wertvolle Informationen für Entwickler und Forscher.

Why Use Personal OKRs
Mittwoch, 21. Mai 2025. Warum Persönliche OKRs Ihr Leben und Ihre Ziele Revolutionieren Können

Erfahren Sie, wie persönliche OKRs Ihnen helfen können, Fokus zu bewahren, Motivation zu steigern und nachhaltige Erfolge in Beruf und Privatleben zu erzielen. Entdecken Sie die Kraft von klaren Zielen und messbaren Ergebnissen für Ihre persönliche Entwicklung.

Job: Software Engineer – Data
Mittwoch, 21. Mai 2025. Software Engineer – Data: Eine Schlüsselrolle in der digitalen Wirtschaft von morgen

Entdecken Sie die zentrale Rolle eines Software Engineers im Datenbereich, ihre Aufgaben, Anforderungen und wie sie die digitale Transformation in Unternehmen vorantreiben. Ein umfassender Einblick in Karrierechancen, Fähigkeiten und Entwicklungspotenziale für Software Engineers im Bereich Daten.

Introducing: Pulsar-L
Mittwoch, 21. Mai 2025. Pulsar-L: Die Revolution im Elektromagnetischen Kampf für die moderne Kriegsführung

Pulsar-L von Anduril Industries ist ein bahnbrechendes, leichtes und tragbares Elektromagnetisches Kriegssystem, das schnelle Einsatzfähigkeit mit adaptiver Technologie kombiniert. Das System ermöglicht Soldaten an der Front, Bedrohungen effizient zu erkennen, zu verfolgen und zu neutralisieren – und definiert damit die Zukunft der elektromagnetischen Kriegsführung neu.