Interviews mit Branchenführern

Künstliche Intelligenz und die Krise der Nicht-Menschlichen Identitäten: Sicherer Einsatz von AI-Agenten im großen Maßstab

Interviews mit Branchenführern
AI Agents and the Non‑Human Identity Crisis: How to Deploy AI More Securely at Scale

Die rasante Verbreitung von AI-Agenten in Unternehmen führt zu einem exponentiellen Wachstum nicht-menschlicher Identitäten, die zahlreiche Sicherheitsrisiken bergen. Die sichere Verwaltung und Kontrolle dieser Identitäten ist essenziell, um Datenlecks und Angriffe zu verhindern und gleichzeitig Innovation und Produktivität zu fördern.

Die Einführung und Integration von Künstlicher Intelligenz (KI) verändert grundlegend die Art und Weise, wie Unternehmen arbeiten. AI-Agenten, von selbstlernenden Chatbots bis hin zu automatisierten Entwicklungswerkzeugen, sind zu unverzichtbaren Komponenten in der digitalen Infrastruktur vieler Unternehmen geworden. Doch mit dem enormen Wachstum dieser nicht-menschlichen Identitäten, die als NHIs (Non-Human Identities) bezeichnet werden, steigen auch die Sicherheitsrisiken und Herausforderungen in der IT-Sicherheit. Die sichere Verwaltung von AI-Agenten und ihren Berechtigungen wird somit zu einer zentralen Voraussetzung für den erfolgreichen und risikoarmen Einsatz von KI im Unternehmensumfeld.Unternehmen stehen heute vor der Tatsache, dass sie pro menschlichem Nutzer oft dutzende bis mehrere hundert nicht-menschliche Identitäten verwalten müssen.

Diese umfassen Servicekonten, Bots, Container, CI/CD-Pipelines und eben AI-Agenten. Jede dieser Identitäten benötigt Zugang zu Systemen und APIs, was durch den Einsatz von Geheimnissen wie API-Schlüsseln, Tokens oder Zertifikaten gewährleistet wird. Die Flut an Geheimnissen wächst enorm – Berichte zeigen beispielsweise, dass allein im Jahr 2024 über 23 Millionen mögliche Sicherheitsgeheimnisse auf öffentlichen Plattformen wie GitHub aufgetaucht sind. Diese unkontrollierte Ausbreitung birgt die Gefahr, dass sensible Informationen versehentlich offengelegt werden oder von Angreifern missbraucht werden können.Die Nicht-Menschlichen Identitäten unterscheiden sich grundlegend von menschlichen Nutzerkonten, da traditionelle Sicherheitsrichtlinien wie regelmäßiger Austausch von Zugangsdaten, Rollenbeschränkungen oder das Deaktivieren nicht mehr benötigter Konten oft nicht konsequent angewandt werden.

Dies führt zu einem undurchsichtigen Netzwerk von Berechtigungen und Zugängen, das im schlimmsten Fall von Cyberkriminellen ausgenutzt werden kann. Die Einführung von KI und speziell von groß angelegten Sprachmodellen mit Retrieval-augmented Generation (RAG) verstärkt diese Problematik nochmals, da die Geschwindigkeit und das Volumen, mit dem Geheimnisse potentiell exponiert werden können, sprunghaft ansteigen.Ein anschauliches Beispiel ist ein interner Support-Chatbot, der mit einem LLM (Large Language Model) betrieben wird. Wird der Bot nach Zugangsdaten für eine Entwicklungsumgebung gefragt, kann es passieren, dass er ungewollt Anmeldeinformationen aus den internen Wissensdatenbanken weitergibt. Selbst wenn Entwickler nur auf einfache Weise auf diese Informationen zugreifen wollen, erhöht sich das Risiko, dass sensible Geheimnisse an unbefugte Personen oder über Protokolle weitergegeben werden.

Solche Szenarien können sich schnell kumulieren und stellen eine ernsthafte Bedrohung für die Unternehmenssicherheit dar.Trotz der Herausforderungen ist der sichere Einsatz von KI und AI-Agenten keinesfalls aussichtslos. Mit klaren Governance-Modellen und strukturierten Maßnahmen können Unternehmen die Risiken kontrollieren und zugleich die Leistungsfähigkeit von KI-Technologien voll ausschöpfen. Hierfür sind verschiedene Kernprinzipien und Strategien unabdingbar.Eine der wichtigsten Maßnahmen ist die gründliche Überprüfung und Bereinigung der Datenquellen, die von AI-Agenten verwendet werden.

Zu oft sind interne Systeme wie Jira, Slack oder Confluence nicht für die sichere Aufbewahrung von Geheimnissen ausgelegt, sodass dort versehentlich sensible Informationen in Klartext gespeichert werden können. Ein effektiver Schutz besteht darin, diese Geheimnisse zu entfernen oder zumindest ihre Zugriffsberechtigungen sofort zu widerrufen. So wird verhindert, dass AI-Systeme oder Mitarbeiter auf veraltete oder ungesicherte Zugangsdaten zugreifen können. Hilfreich sind hierbei spezialisierte Tools zur automatisierten Erkennung und Entfernung von Sicherheitsgeheimnissen aus den Datenbeständen.Ebenso entscheidend ist die zentralisierte Verwaltung aller nicht-menschlichen Identitäten über professionelle Geheimnis-Management-Lösungen wie HashiCorp Vault, CyberArk oder AWS Secrets Manager.

Nur durch eine nachvollziehbare und kontrollierte Verwaltung kann der Lebenszyklus jedes Zugangs authentifiziert, überwacht und automatisch bei Bedarf erneuert werden. Die Automatisierung von Credential-Rotationen und die Durchsetzung von Zugriffsrichtlinien sorgen dafür, dass langfristig gültige und unkontrollierte Geheimnisse der Vergangenheit angehören.In Bezug auf die Entwicklung und Implementierung von AI-Systemen spielt die Vermeidung von Geheimnis-Leaks beim Code eine zentrale Rolle. Untersuchungen haben ergeben, dass ein nicht unerheblicher Anteil von Anwendungen mit AI-Anbindung immer noch über Hardcoded Secrets verfügt, was ein erhebliches Sicherheitsrisiko darstellt. Frühzeitige Sicherheitsprüfungen während des Entwicklungszyklus und der Einsatz von Geheimnis-Erkennungstools in der Programmierumgebung können solchen Fehlern effektiv vorbeugen.

Dies minimiert die Gefahr, dass sensible Informationen ungewollt in öffentliche Repositories oder produktive Systeme gelangen.Darüber hinaus muss auch die Sicherheit der Protokollierung optimiert werden. AI-Modelle arbeiten auf Basis von Eingabeaufforderungen, Kontextdaten und erzeugten Antworten, die oft in Logs erfasst werden, um die Systeme zu verbessern und zu überwachen. Wenn sich darin Klartextgeheimnisse befinden, vervielfachen sich die Gefahren durch deren Verbreitung. Der Einsatz von Datenbereinigung und Geheimnis-Scannern vor der Speicherung oder Weitergabe von Logs ist daher unerlässlich, um ein unnötiges Sicherheitsrisiko zu reduzieren.

Eine weitere wichtige Überlegung betrifft die Beschränkung der Datenzugriffsrechte für AI-Agenten. Der Grundsatz der minimalen Rechtevergabe, der bei menschlichen Nutzern Standard ist, sollte ebenso für AI-Systeme gelten. Die Versuchung, einem Agenten uneingeschränkten Zugang zu gewähren, um die Entwicklungs- oder Antwortgeschwindigkeit zu steigern, ist groß. Dies kann jedoch leicht zu Missbrauch und Datenlecks führen, vor allem bei öffentlich zugänglichen oder sensiblen Kundensystemen. Eine differenzierte und wohlüberlegte Zugriffskontrolle kombiniert mit einer regelmäßigen Überprüfung der Rechte stellt daher ein effizientes Sicherheitsfundament dar.

Nicht zuletzt müssen alle Beteiligten, insbesondere Entwickler und Sicherheitsbeauftragte, für die speziellen Risiken rund um nicht-menschliche Identitäten sensibilisiert werden. Der menschliche Faktor bleibt unverzichtbar, um technische Lösungen mit den richtigen Prozessen und Richtlinien zu ergänzen. Ein gemeinsames Verständnis und eine konsequente Zusammenarbeit helfen dabei, Sicherheitslücken frühzeitig zu erkennen und bestmöglich zu schließen. Es gilt eine Kultur der sicheren Entwicklung zu fördern, in der Sicherheit und Innovation Hand in Hand gehen.Die Zukunft der KI-Verbreitung wird maßgeblich durch Unternehmen geprägt, die den Umgang mit nicht-menschlichen Identitäten professionell und verantwortungsvoll gestalten.

Automatischer Handel mit Krypto-Geldbörsen Kaufen Sie Ihre Kryptowährung zum besten Preis

Als Nächstes
Bluesky urged to review 'punitive' policies towards Palestine content
Sonntag, 06. Juli 2025. Bluesky unter Druck: Forderungen nach Überprüfung der restriktiven Richtlinien gegen palästinensische Inhalte

Die soziale Plattform Bluesky sieht sich wachsender Kritik ausgesetzt, da Nutzer einseitige Zensur und harte Moderationspraktiken gegen palästinensische Inhalte beklagen. Aktivisten und Betroffene fordern eine Überarbeitung der Richtlinien, um faire und gerechte Bedingungen für alle Stimmen inmitten des Israel-Gaza-Konflikts zu gewährleisten.

Frugal tech: The startups working on cheap innovation
Sonntag, 06. Juli 2025. Frugale Technologie: Wie Start-ups bezahlbare Innovationen für eine bessere Zukunft schaffen

Bezahlbare technologische Innovationen eröffnen neue Möglichkeiten für nachhaltige Entwicklung und sozioökonomischen Fortschritt. Junge Unternehmen aus Indien zeigen, wie kreative und kostengünstige Lösungen soziale Herausforderungen meistern und gleichzeitig Arbeitsplätze schaffen können.

SteamOS 3.7.8 Brings Official Support to Non-Steam Deck Devices
Sonntag, 06. Juli 2025. SteamOS 3.7.8: Valve öffnet die Türen für Nicht-Steam-Deck Geräte und etabliert neuen Standard für AMD-Handhelds

SteamOS 3. 7.

Number of Days Working from Home per Week by Country
Sonntag, 06. Juli 2025. Wie viele Tage pro Woche arbeiten Menschen in verschiedenen Ländern von zu Hause aus? Ein globaler Überblick

Ein umfassender Einblick in die durchschnittliche Anzahl der Tage, die Arbeitnehmer weltweit von zu Hause aus arbeiten, mit Fokus auf die Unterschiede zwischen Ländern und deren Einfluss auf Arbeitskultur und Wirtschaft.

USDC Issuer Circle Aims at $5.65 Billion Valuation in US IPO
Sonntag, 06. Juli 2025. Circle plant US-Börsengang mit 5,65 Milliarden US-Dollar Bewertung – Ein Meilenstein für den USDC-Stablecoin

Circle, der Emittent des Stablecoins USDC, strebt bei seinem bevorstehenden Börsengang in den USA eine Bewertung von 5,65 Milliarden US-Dollar an. Der Schritt markiert einen bedeutenden Fortschritt für das Unternehmen und unterstreicht die wichtige Rolle von Stablecoins im Finanzsektor.

Mawari Transforms VTuber-Fan Engagement with Immersive 3D vTubeXR Launch; Partners With Japan’s Biggest VTuber Agencies
Sonntag, 06. Juli 2025. Mawari revolutioniert die VTuber-Fanbindung mit dem bahnbrechenden 3D vTubeXR Launch und Kooperationen mit Japans führenden VTuber-Agenturen

Mawari stellt eine innovative XR-Plattform vor, die das Fan-Erlebnis von VTubern grundlegend verändert. In Zusammenarbeit mit den größten VTuber-Agenturen Japans eröffnet vTubeXR neue Dimensionen immersiver und interaktiver Fan-Events und setzt neue Maßstäbe für virtuelle Unterhaltung und Monetarisierung.

Dow Jones Futures Jump On Trump Tariff News; Nvidia Stock Eyes New Buy Point
Sonntag, 06. Juli 2025. Dow Jones und Nvidia im Fokus: Neue Impulse durch Trumps Zollentscheidungen und Marktentwicklungen

Die jüngsten Entwicklungen rund um die Verzögerung der US-Zölle auf die EU führen zu einer deutlichen Kursrallye im Dow Jones Industrial Average. Besonders die Aktie von Nvidia steht vor einem potentiellen Kaufpunkt, was spannende Chancen für Investoren eröffnet.