Steuern und Kryptowährungen

Künstliche Intelligenz ohne Sicherheit: Warum das Risiko heute größer ist als je zuvor

Steuern und Kryptowährungen
Everyone's deploying AI, but no one's securing it – what could go wrong?

Künstliche Intelligenz wird in Unternehmen jeder Größe eingeführt, doch die Sicherheit bleibt oft auf der Strecke. Die damit verbundenen Gefahren können schwere Folgen für Wirtschaft und Gesellschaft haben.

Künstliche Intelligenz (KI) erlebt derzeit einen beispiellosen Boom, der nahezu jede Branche und Organisation betrifft. Von multinationalen Konzernen bis zu kleinen lokalen Unternehmen setzen immer mehr Akteure auf KI-Technologien, um effizienter zu arbeiten, Kosten zu sparen und innovative Produkte oder Dienstleistungen anzubieten. Doch während der Einsatz von KI rasant zunimmt, besteht ein wachsendes Problem: Sicherheit und Schutzmaßnahmen werden vielfach vernachlässigt. Die Folgen dieser Vernachlässigung könnten nicht nur einzelne Unternehmen, sondern ganze Infrastrukturen und Lieferketten gefährden. Beim jüngsten CYBERUK-Kongress des UK National Cyber Security Centre (NCSC) wurde das Ausmaß dieser Problematik besonders deutlich.

Peter Garraghan, Professor für verteilte Systeme und CEO von Mindgard, fragte unter einem 200-köpfigen Publikum aus Cybersicherheitsexperten nach Firmen, die den Einsatz von generativer KI komplett verboten haben – nur drei meldeten sich. Noch alarmierender war die anschließende Frage nach dem tatsächlichen Verständnis der Sicherheitsrisiken bei KI-Systemen: Kein einziger Teilnehmer erhob die Hand. Dieses Szenario illustriert prägnant, wie viele Unternehmen aktuell eine riskante Balance eingehen. KI wird implementiert, ohne dass umfassende Sicherheitskonzepte zugrunde liegen. Diese Nachlässigkeit im Bereich der Cybersicherheit bringt erhebliche Gefahr mit sich.

KI-Systeme erweitern die digitale Angriffsfläche signifikant. Insbesondere bei kritischen Infrastrukturen und komplexen Lieferketten können Schwachstellen langfristig zu potenziell katastrophalen Sicherheitsvorfällen führen. Das NCSC warnt in seinem im Mai 2025 veröffentlichten Bericht, dass schon bis zum Jahr 2027 eine realistische Möglichkeit besteht, dass fortgeschrittene Angreifer kritische Systeme kompromittieren. Besonders beunruhigend ist die Aussicht, dass Angreifer durch KI-gesteuerte Werkzeuge die Zeitspanne von Entdeckung bis zur Ausnutzung von Sicherheitslücken drastisch verkürzen werden. Während früher Tage oder Wochen verstreichen konnten, um Sicherheitslücken auszunutzen, ist heute eine Zeitspanne von nur wenigen Stunden oder sogar Minuten denkbar – eine Entwicklung, die durch AI-Assisted Vulnerability Research zunehmend beschleunigt wird.

Die Konsequenz daraus ist, dass Organisationen, die KI nicht endlich in ihre Verteidigungsstrategien integrieren, bald als Schwachstellen in der gesamten digitalen Infrastruktur gelten. Besonders Unternehmen, die Teil kritischer Lieferketten sind, gefährden damit nicht nur sich selbst, sondern auch ihre Geschäftspartner und Kunden. Die Digitalisierung hat Lieferketten komplexer gemacht, sodass ein einziger kompromittierter Knotenpunkt für massive Störungen sorgen kann. Die Cybersicherheit durch KI zu verbessern, wird damit zur zentralen Aufgabe für nationales und internationales Risikomanagement. Der rasche Umbruch in der Technologielandschaft führt jedoch oft dazu, dass KI-Systeme ungeduldig und ohne ausreichende Sicherheitskontrollen eingeführt werden, da Marktteilnehmer im Wettlauf um Innovationen stehen.

Dies liegt auch daran, dass die etablierten Cybersicherheitspraktiken sich häufig nicht schnell genug an die Herausforderungen der KI-Technologien anpassen. Die NCSC unterstreicht, dass es unabdingbar ist, grundlegende Sicherheitsprinzipien konsequent auf KI-Anwendungen anzuwenden. Dazu gehören insbesondere die Absicherung von Datenflüssen, das Management von Benutzerrechten und eine umfassende Kontrolle über die eingesetzten Modelle und ihre Trainingsdaten. Ein besonders prekäres Risiko sind die sogenannten Prompt-Injektionen und indirekten Eingaben, bei denen Angreifer die KI-Systeme manipulieren, um ungewollte Befehle auszuführen oder sensiblen Code zu extrahieren. In einem konkreten Fall gelang es Sicherheitsexperten, einen AI-Chatbot, der einem Kerzengeschäft zur Verkaufsunterstützung dient, zu kompromittieren.

Durch eine unzureichende Absicherung konnte ein sogenannter Reverse Shell-Zugriff erlangt werden, mit dem Angreifer Kontrolle über das dahinterliegende System gewinnen und sensible Daten auslesen konnten. Neben technischen Risiken zeigen sich auch sicherheitstechnische Gefahren, wenn etwa ein Chatbot manipuliert wird, um Anleitungen zu gefährlichen Handlungen zu geben. Auch betriebliche Risiken dürfen nicht unterschätzt werden, etwa wenn Firmengeheimnisse oder Rezepturen eines Produkts ungewollt offengelegt werden. Neben technischen Sicherheitslücken besteht weiterhin das Risiko der unsachgemäßen Datenhandhabung. Die Konfiguration von KI-Systemen, wenn diese nicht sorgfältig erfolgen, kann dazu beitragen, dass Daten bei der Übertragung abgefangen werden oder dass Zugangsdaten von Angreifern gestohlen werden.

Kundendaten könnten missbraucht werden, vor allem wenn es sich um personalisierte oder sensible Informationen handelt. Die Gefahr gezielter cyberkrimineller Attacken auf Grundlage von KI wächst ebenso mit jedem ungeschützten Einsatz weiter. Ein weiterer Aspekt betrifft die Verantwortlichkeit großer Technologieanbieter. Viele kleinere oder mittlere Unternehmen beziehen ihre KI-Lösungen von solchen Anbietern. Sollte Letztere die notwendigen Sicherheitsstandards nicht implementieren oder kontinuierlich verbessern, treiben sie durch ihre Marktmacht und Verbreitung das Risiko weiter in die Breite.

Das NCSC fordert entsprechend, dass Marktanreize geschaffen werden, um die Resilienz gegenüber KI-basierten Angriffen auf breite Füße zu stellen. Dies inkludiert auch eine gesellschaftliche Verpflichtung seitens der Tech-Konzerne, ihrer Corporate Social Responsibility gerecht zu werden und ihre Produkte nicht nur funktional, sondern vor allem sicher zu gestalten. Die Einführung von KI gelingt in Zeiten des zunehmenden Wettbewerbsdrucks oft auf Kosten einer sorgfältigen Risikoabschätzung. Genau dieser Trend verstärkt die Angriffsfläche, die kriminelle und staatliche Akteure für eine neue Generation von Cyberangriffen nutzen werden. Angesichts der Tatsache, dass KI selbst auch von Angreifern genutzt wird, um schnell Schwachstellen zu identifizieren und auszunutzen, entsteht in Unternehmen ein Wettlauf gegen die Zeit, der zuletzt vor allem durch stark erhöhte Automatisierung geprägt ist.

Strategisch gesehen muss deshalb die Integration von KI in bestehende Cyberabwehrmaßnahmen höchste Priorität haben. Security by Design bei der Entwicklung und Implementierung von KI-Lösungen muss zum Standard werden. Datenschutz und Datensouveränität spielen eine zentrale Rolle, denn KI-Systeme sind nur so sicher wie die Daten, mit denen sie arbeiten. Zugriffsrechte sind engmaschig zu kontrollieren, und Governance-Strukturen müssen angelegt werden, die auch zukünftigen, bisher unbekannten Risiken Rechnung tragen können. Kompetenzaufbau ist ein weiterer wichtiger Faktor.

Die Sicherheitsexperten heute fühlen sich vielfach selbst noch nicht ausreichend fit, um die neuen Herausforderungen zu meistern. Ohne gezielte Weiterbildung und Sensibilisierung auf allen Ebenen gedeiht das Risiko nachlässiger Sicherheitspraktiken. Ein sektorübergreifender, kollaborativer Ansatz, der Unternehmen, Behörden und Forschungseinrichtungen verbindet, ist notwendig, um Synergien zu nutzen und auf bestehende Bedrohungen schnell reagieren zu können. Auch die Rolle der Gesetzgebung und Regulierung sollte nicht unterschätzt werden. Klare gesetzliche Vorgaben, Zertifizierungen und Audits könnten dabei helfen, Sicherheitsstandards across-the-board durchzusetzen.

Derzeit herrscht in vielen Ländern noch Uneinigkeit darüber, wie KI sicher reguliert werden kann, ohne den Innovationsprozess zu stark zu bremsen. Doch der Druck steigt, denn die Bedrohungslage verschärft sich mit jedem Tag. Abschließend ist festzuhalten, dass die sichere Nutzung von KI nicht nur eine technologische Herausforderung ist, sondern auch kulturelle und organisatorische Veränderungen erfordert. Unternehmen müssen lernen, KI nicht als isolierte Technologie, sondern als integralen Bestandteil ihres Sicherheitskonzepts zu begreifen. Die Risiken zu ignorieren oder zu unterschätzen wird langfristig nicht nur den einzelnen Akteur gefährden, sondern auch die digitale Infrastruktur ganzer Nationen.

Die Botschaft des NCSC und anderer Sicherheitsexperten ist klar: Es gilt, die Chancen von künstlicher Intelligenz mit der notwendigen Vorsicht und Verantwortung zu verbinden. Nur so kann der Weg in eine digitale Zukunft gelingen, die durch Innovation und Sicherheit gleichermaßen geprägt ist. Wer heute in Sachen KI-Sicherheit versäumt Maßnahmen zu ergreifen, wird morgen einem immer höheren Risiko ausgesetzt sein – mit unvorhersehbaren Folgen für Wirtschaft, Gesellschaft und nationale Sicherheit.

Automatischer Handel mit Krypto-Geldbörsen Kaufen Sie Ihre Kryptowährung zum besten Preis

Als Nächstes
A single Python function for both async/sync
Sonntag, 22. Juni 2025. Eine elegante Lösung: Eine einzige Python-Funktion für asynchrones und synchrones Programmieren

Entdecken Sie, wie Python-Entwickler mit einer innovativen Technik sowohl asynchrone als auch synchrone Funktionen mit einer einzigen Codebasis schreiben können. Erfahren Sie, wie dieser Ansatz Programmieraufwand reduziert, den Code sauber hält und gleichzeitig flexibler Einsatz in modernen Python-Anwendungen ermöglicht.

Samsung to adopt hybrid bonding for HBM4 memory
Sonntag, 22. Juni 2025. Samsung setzt auf Hybrid Bonding für HBM4: Die Zukunft der Speichertechnologie beginnt jetzt

Samsung kündigt den Einsatz von Hybrid Bonding für die nächste Generation des HBM4-Speichers an. Ein bahnbrechender Schritt, der die Leistungsfähigkeit, Energieeffizienz und thermische Kontrolle von High-Bandwidth-Memory revolutionieren soll und die Wettbewerbslandschaft in der Speicherindustrie nachhaltig verändern kann.

I built a Next.js boilerplate for P2P and B2C marketplaces – Peerquik
Sonntag, 22. Juni 2025. Peerquik: Die Revolution für B2C- und P2P-Marktplätze mit Next.js

Peerquik bietet eine maßgeschneiderte Next. js-Boilerplate für die schnelle Entwicklung von B2C- und P2P-Marktplätzen.

LLM Embeddings Explained: A Visual and Intuitive Guide
Sonntag, 22. Juni 2025. LLM-Embeddings Verständlich Erklärt: Ein Visueller und Intuitiver Leitfaden

Ein umfassender Leitfaden, der die Funktionsweise und den Nutzen von LLM-Embeddings verständlich und anschaulich erklärt. Er fokussiert sich auf die Anwendungsmöglichkeiten und die Bedeutung im Bereich moderner Sprachmodelle.

Metaplanet Buys 1,241 BTC, Surpasses El Salvador With 6,796 BTC; Semler Scientific Holds 3,808 BTC
Sonntag, 22. Juni 2025. Metaplanet überholt El Salvador: Bitcoin-Investitionen erreichen neue Rekordhöhe

Metaplanet steigt mit dem Kauf von 1. 241 BTC zum weltweit größten Bitcoin-Anleger auf und übertrifft damit El Salvador.

Synthetix Considers Purchase of Options Platform Derive in $27M Token-Swap Deal
Sonntag, 22. Juni 2025. Synthetix plant Übernahme der Optionsplattform Derive durch $27 Millionen Token-Swap-Deal

Die geplante Fusion von Synthetix mit Derive stellt einen bedeutenden Schritt im DeFi-Bereich dar. Dieser Artikel beleuchtet die Hintergründe, Details und potenziellen Auswirkungen der $27 Millionen schweren Token-Swap-Akquisition zwischen den beiden Ethereum-basierten Derivateprotokollen.

Standard Chartered Will Provide Banking Services for FalconX to Enhance Cross-Border Settlement
Sonntag, 22. Juni 2025. Standard Chartered und FalconX: Revolutionäre Partnerschaft für verbesserte grenzüberschreitende Finanztransaktionen

Standard Chartered stärkt mit seiner neuen Kooperation die institutionelle Prime Brokerage von FalconX, um die Geschwindigkeit und Zuverlässigkeit grenzüberschreitender Abwicklungen massiv zu verbessern und traditionelle Finanzdienstleistungen mit der Krypto-Welt zu verbinden.