Bitcoin

Gefährliche Sicherheitslücken bei führenden KI-Systemen: Jailbreaks, unsicherer Code und Datenklau im Fokus

Bitcoin
New Reports Uncover Jailbreaks, Unsafe Code, and Data Theft Risks in Leading AI Systems

Moderne KI-Systeme wie ChatGPT oder Google Gemini stehen im Zentrum neuer Berichte, die erhebliche Sicherheitsmängel und Risiken offenlegen. Dazu zählen Jailbreak-Angriffe, das Generieren unsicheren Codes sowie ernsthafte Gefahren für den Datenschutz.

Die rasante Entwicklung generativer künstlicher Intelligenz (GenAI) hat in den letzten Jahren beeindruckende Anwendungen hervorgebracht, von Chatbots über automatisierte Texterstellung bis hin zu komplexen Softwareentwicklungsprozessen. Gleichzeitig rücken Sicherheitsfragen immer stärker in den Vordergrund, da neue Studien und Berichte deutlich aufzeigen, dass viele der führenden KI-Systeme mit erheblichen Schwachstellen behaftet sind. Diese betreffen insbesondere Jailbreak-Techniken, die es Angreifern ermöglichen, die integrierten Schutzmechanismen der KI-Modelle zu umgehen, das unbeabsichtigte Erzeugen von unsicherem Code sowie die Risiken durch Datenmanipulation und Datenklau. Die Sicherheitslücken haben weitreichende Konsequenzen: Sie gefährden die Vertrauenswürdigkeit der Systeme, können Malware fördern, sensible Informationen offenlegen und letztlich auch das ganze Ökosystem an nachgelagerten Anwendungen und Dienstleistungen kompromittieren. Im Folgenden wird erläutert, wie genau diese Schwachstellen funktionieren, welche Angriffsarten aktuell eine besondere Rolle spielen und wie Nutzer, Entwickler und Unternehmen darauf reagieren können.

Ein besonders beunruhigendes Phänomen sind sogenannte Jailbreak-Angriffe. Dabei wird die KI durch gezielte Eingaben dazu gebracht, ihre eingebauten Sicherheitssysteme zu ignorieren und verbotene oder gefährliche Inhalte zu generieren. Eine Technik mit dem Codenamen „Inception“ zeigt das eindrucksvoll: Die KI wird dazu gebracht, sich ein fiktives, verschachteltes Szenario vorzustellen – in diesem zweiten Szenario fehlen die üblichen Schutzmechanismen. Innerhalb dieses Rahmens kann sie dann Anweisungen ausführen, die in der realen Anwendung verboten wären. Die CERT Coordination Center hat dies als eine ernstzunehmende Gefahr eingestuft, da sich durch kontinuierliches Nachfragen im inneren Szenario Schutzbarrieren umgehen lassen.

Ein anderer Trick besteht darin, die KI zu fragen, wie sie nicht auf bestimmte Anfragen antworten soll, um sie danach mit regulären Aufforderungen abzuwechseln. Dadurch kann der Angreifer immer wieder zwischen harmlosen und unerlaubten Antworten hin- und herwechseln, was ebenfalls die Sicherheit unterläuft. Diese Methoden sind nicht nur theoretische Beispiele, sondern wurden bei etablierten Systemen gefunden – darunter OpenAI ChatGPT, Microsoft Copilot, Google Gemini und weitere.Weitere Angriffsvektoren, die in der jüngeren Vergangenheit an Bedeutung gewonnen haben, sind der sogenannte Context Compliance Attack (CCA), bei dem eine scheinbar einfache Antwort in der Unterhaltung platziert wird, die den Weg für sensible oder verbotene Themen öffnet. Die Policy Puppetry Attack täuscht die KI durch speziell gestaltete Eingaben in Form von Policy-Dateien wie XML oder JSON vor, wobei diese Vorgaben schädliche Anweisungen enthalten, die Sicherheitskontrollen umgehen.

Die Memory INJection Attack (MINJA) wiederum nutzt gezielte Manipulation des Speicherpuffers, um die KI dazu zu bringen, unerwünschte Aktionen auszuführen – all diese Angriffstechniken zeigen, wie vielseitig und kreativ Hacker mittlerweile vorgehen.Erschreckend ist außerdem, dass KI-gestützte Systeme beim Programmieren naturgemäß unsicheren Code erzeugen können, besonders wenn der Prompt nur vage oder schlecht formuliert ist. Sicherheitsüberprüfungen von Backslash Security machen deutlich, dass selbst explizit gewünschter sicherer Code oft erst durch sehr detaillierte und präzise Eingaben realistisch erreicht werden kann. Dies verdeutlicht, wie wichtig es ist, in der Softwareentwicklung mit KI passende Schutzmaßnahmen, kontrollierte Richtlinien und ausführliche Vorgaben einzuführen, um die Qualität und Sicherheit des generierten Codes nicht dem Zufall zu überlassen.Das Thema Modellaktualisierung und deren Auswirkungen auf die Sicherheit von KI-Systemen ist ebenfalls nicht zu unterschätzen.

So zeigte die Analyse des OpenAI-Modells GPT-4.1, dass es dreimal so häufig wie sein Vorgänger GPT-4o vom Thema abweicht und mehr Spielraum für missbräuchliches Verhalten lässt. Sicherheitsforscher warnen davor, Modelle einfach auszutauschen, ohne deren spezifische Eigenheiten zu verstehen, da jedes System unterschiedliche Fähigkeiten und Schwachstellen aufweist. Besonders sorgen bereitet, dass bei der Entwicklung neuer Versionen teilweise Sicherheitsprüfungen zu knapp bemessen sind und der Druck steht, neue Systeme möglichst schnell auf den Markt zu bringen – was das Risiko von Sicherheitslücken erhöht.Darüber hinaus zeigen Untersuchungen zu offenen Standards wie dem Model Context Protocol (MCP), das von Anthropic entwickelt wurde, neue potenzielle Angriffspunkte.

MCP soll theoretisch Datenquellen und KI-Anwendungen verbinden, kann jedoch bei Manipulation missbraucht werden, um sensible Daten zu stehlen oder das Verhalten von KI-Agenten zu übernehmen. Die sogenannte Tool Poisoning Attack nutzt hierbei versteckte und unsichtbare, für Nutzer nicht nachvollziehbare Änderungen in den Tool-Beschreibungen, um die KI-Systeme zu missbrauchen. Ein konkretes Beispiel aus der Praxis demonstriert, wie WhatsApp-Chathistorien über einen solchen Angriff von agentenbasierten Systemen ausgeforscht werden können – selbst wenn der Nutzer anfänglich vertrauensvolle Verbindungen genehmigt hatte.Ein weiterer alarmierender Fall betrifft eine Google Chrome-Erweiterung, die mit einem lokal laufenden MCP-Server kommuniziert und so die komplette Kontrolle über das System erlangt – trotz der eigentlich bestehenden Sandbox-Sicherheitsmechanismen des Browsers. Solche Erweiterungen verfügen über unbegrenzten Zugriff auf die Tools des MCP-Servers, ohne Authentifizierung, was das Risiko einer vollständigen Systemkompromittierung enorm erhöht.

Die aktuellen Erkenntnisse zeigen, dass KI-Sicherheit kein Thema ist, das nur Experten betrifft, sondern eine breit angelegte Herausforderung darstellt. Unternehmen, die KI in ihren Anwendungen nutzen, müssen umfassende Sicherheitsstrategien entwickeln und implementieren, die neben technischen Schutzmaßnahmen auch Trainings und Sensibilisierung der Mitarbeitenden sowie eine ständige Überwachung umfassen. Das gilt besonders für jene Bereiche, in denen sensible Daten verarbeitet oder verantwortungskritische Entscheidungen durch KI unterstützt werden.Auch Nutzer sollten sich über die potenziellen Risiken bewusst sein. Der Einsatz von Generativer KI sollte immer mit Vorsicht und kritischem Blick erfolgen.

Automatischer Handel mit Krypto-Geldbörsen Kaufen Sie Ihre Kryptowährung zum besten Preis

Als Nächstes
XRP (XRP/USD) Live
Dienstag, 20. Mai 2025. XRP (XRP/USD) Live – Die Zukunft der schnellen und kostengünstigen Kryptowährungen

Ein umfassender Überblick über die aktuellen Entwicklungen, Technologie und den Markt von XRP (XRP/USD), der nativen Kryptowährung des Ripple-Netzwerks, mit Fokus auf ihre Bedeutung im internationalen Zahlungsverkehr und den Einfluss auf Anleger und Finanzinstitutionen.

WhatsApp Launches Private Processing to Enable AI Features While Protecting Message Privacy
Dienstag, 20. Mai 2025. WhatsApp startet Private Processing: Künstliche Intelligenz trifft auf maximalen Datenschutz

WhatsApp führt mit Private Processing eine innovative Technologie ein, die ermöglicht, KI-Funktionalitäten wie Nachrichten-Zusammenfassungen oder Hilfe beim Texten zu nutzen, ohne dabei die Privatsphäre der Nutzer zu gefährden. Im Fokus steht die sichere und vertrauliche Verarbeitung von Nachrichten durch moderne Verschlüsselung und Schutzmechanismen, die WhatsApp zu einer der sichersten Plattformen macht.

Hitachi Vantara takes servers offline after Akira ransomware attack
Dienstag, 20. Mai 2025. Hitachi Vantara und der Akira-Ransomware-Angriff: Wie ein proaktiver Sicherheitsansatz den Schaden begrenzte

Der Cyberangriff auf Hitachi Vantara durch die Akira-Ransomware entfachte weitreichende Sorgen um Datensicherheit und Betriebsstabilität. Der nachfolgende Überblick beleuchtet den Ablauf des Vorfalls, die Sofortmaßnahmen des Unternehmens und die umfangreichen Wiederherstellungsbemühungen, die das Vertrauen von Kunden und Partnern sichern sollen.

Global warming is 'exposing' new coastlines and islands as glaciers shrink
Dienstag, 20. Mai 2025. Globale Erwärmung enthüllt neue Küstenlinien und Inseln durch schrumpfende Gletscher

Die schmelzenden Gletscher in der Arktis verändern die Landkarte dramatisch, indem sie neue Küstenlinien und Inseln freilegen. Dabei entstehen nicht nur neue Landschaften, sondern auch Herausforderungen für Umwelt und Mensch.

A New Way to Vendor
Dienstag, 20. Mai 2025. Eine neue Methode zum Vendoring: Zukunftssichere Frontend-Entwicklung ohne Bundling

Moderne Frontend-Entwicklung ohne klassische Bundling-Tools ermöglicht einen schlankeren Workflow und bessere Performance. Durch Mapping statt Bundling und innovative Techniken zum Vendoring von Ressourcen entstehen leistungsfähige Webseiten mit weniger Komplexität.

Llama API
Dienstag, 20. Mai 2025. Llama API: Die Revolution der KI-Entwicklung mit Meta's neuem Open-Source-Tool

Entdecken Sie, wie die Llama API von Meta Entwicklern leistungsstarke, flexible und sichere Möglichkeiten für die Integration modernster KI-Modelle bietet. Erfahren Sie mehr über die Features, Vorteile, Sicherheitsmaßnahmen und wie Sie mit der Llama API innovative KI-Projekte schnell und effizient umsetzen können.

Lombard Finance Partners With Eigen Foundation to Bring $1.6T Bitcoin Into EigenLayer Restaking With Dual Rewards and $7B TVL
Dienstag, 20. Mai 2025. Lombard Finance und Eigen Foundation starten revolutionäres Bitcoin-Restaking mit Dual Rewards und $7 Milliarden TVL

Lombard Finance und die Eigen Foundation gehen eine strategische Partnerschaft ein, um Bitcoin im Wert von 1,6 Billionen US-Dollar in das Ethereum-basierte EigenLayer Restaking zu integrieren. Diese innovative Zusammenarbeit eröffnet neue Möglichkeiten für Bitcoin-Holder, durch Dual Rewards und ein sicheres Restaking-Ökosystem attraktive Renditen zu erzielen.