Die Weiterentwicklung von Künstlicher Intelligenz (KI) steht an einem entscheidenden Wendepunkt. Agentische Systeme, bestehend aus kleineren, spezialisierten Modellen, die gemeinsam orchestriert werden, stellen einen innovativen Ansatz dar, komplexe Aufgaben intelligent zu bearbeiten. Doch der Aufbau solcher Systeme ist alles andere als trivial. Komplexität nimmt nicht nur linear zu, sondern potenziert sich, wenn zusätzliche Agenten integriert werden, die oftmals menschliche Denkprozesse wie Urteilsfähigkeit, Kontextverständnis oder Entscheidungskompetenz nachbilden sollen. Ein zu ambitionierter Automatisierungsansatz birgt Risiken wie Systeminstabilität, falsche Entscheidungen oder den Verlust von Vertrauen bei den Nutzern.
Deshalb empfiehlt es sich, Agentische Systeme mit einer fundamentalen strategischen Überlegung zu gestalten: den Menschen zunächst als KI-Agenten einzusetzen. Dieser Ansatz stellt sicher, dass die Systeme Schritt für Schritt, auf Basis von Praxiswissen und menschlicher Expertise, reifen und Vertrauen gewinnen können. Die Rolle des Menschen als KI-Agent ist dabei nicht einfach eine zeitlich überbrückende Maßnahme, sondern eine wertvolle Methode, um realistische Anforderungen, Herausforderungen und potenzielle Gefahren frühen Entwicklungsstadien zu identifizieren. Human Agents führen konkrete Aufgaben auf die Weise aus, wie es die angestrebte KI in Zukunft tun würde, inklusive der Kommunikation über geeignete Plattformen wie Slack, E-Mail oder maßgeschneiderte Interfaces. Diese Vorgehensweise ermöglicht es den Entwicklern, die Prozessschritte besser zu verstehen, feingliedrig aufzuschlüsseln und diejenigen Komponenten zu priorisieren, die absolut kritisch oder risikobehaftet sind.
Es ist wichtig, den Unterschied zwischen heutiger menschlicher Arbeit und der zukünftigen automatisierten Variante klar zu machen. Menschen agieren hoch flexibel, kontextsensitiv und können mehrere Wissensdomänen simultan einbeziehen. Diese Fähigkeit ist derzeit für KI-Systeme, die auf begrenzte und klar definierte Aufgaben fokussiert sind, noch nicht in gleichwertiger Qualität reproduzierbar. Im Kundenservice etwa fällt es einem Menschen leichter, Tonfall und Dringlichkeit im Kundenanliegen sofort zu erfassen, frühere Interaktionen mühelos einzubeziehen und situationsabhängig Entscheidungen zu treffen, ob das Anliegen sofort bearbeitet oder an Kollegen eskaliert wird. Ein KI-System hingegen zerlegt diese Aufgabe in einzelne, eng definierte Schritte, die von verschiedenen spezialisierten Agenten abgearbeitet werden.
Erst gelingt mit diesen Teilagenten die automatisierte Bearbeitung, die aber ohne sorgfältiges Monitoring und Abstimmung leicht an Grenzen stoßen kann. Der Start mit menschlichen Agenten bietet zahlreiche Vorteile für den Entwicklungsprozess von agentischen Systemen. Erstens sorgt es für eine verantwortungsbewusste Annäherung: Man geht von geringem Vertrauen in die Automation aus und baut es nach und nach auf. So werden Fehler frühzeitig erkannt, und unnötige Risiken bei der Automatisierung vermieden. Zweitens ermöglicht es eine agile Iteration.
Auch wenn noch nicht alle KI-Agenten voll funktionsfähig sind, kann das System schon getestet und weiterentwickelt werden. Drittens wird durch die menschliche Ausführung der Aufgaben wertvolles Datenmaterial generiert, das später für das Training der KI-Modelle notwendig ist. Dieser Datensatz enthält reale Verhaltensweisen, Entscheidungsmuster und Reaktionsweisen, die für die spätere Automatisierung essenziell sind, um die Korrektheit und Flexibilität der KI-Agenten zu verbessern. Eng gekoppelt mit der Strategie „Menschen als Agenten“ ist das Konzept der Reifegrade bzw. Maturitätsstufen eines agentischen Systems.
Die Entwicklung durchläuft dabei verschiedene Phasen: beginnend von komplett manuell über den „Copilot-Modus“, in dem die KI assistiert, bis zu menschlichem Feedback im Kontrollloop, Eskalationsmechanismen und schließlich der vollautonomen Betriebsfähigkeit. Das Ziel ist es, systematisch Vertrauen aufzubauen, Leistung zu quantifizieren und Risiken zu minimieren. So können Organisationen gezielt festlegen, ab wann ein Agent Aufgaben selbstständig ausführen darf oder wann eine menschliche Überprüfung notwendig bleibt. Darüber hinaus ist der Mensch-in-der-Schleife-Ansatz kein bloßes Übergangsmodell, sondern ein integraler Bestandteil des Systemdesigns. Er sorgt für nachhaltige Qualitätskontrollen, verhindert das sogenannte „Driften“ von KI-Modellen und erlaubt kontinuierliche Verbesserungen.
Menschliche Agenten können zudem gezielt für Bias-Management sorgen, indem ihre Entscheidungen und Bewertungen für Auditprozesse genutzt werden. Dies ist besonders wichtig, weil KI-Systeme die Vorurteile oder Einschränkungen der Trainingsdaten reflektieren und gegebenenfalls verstärken können. Die menschliche Vielfalt als Kontrollinstanz trägt dazu bei, Verzerrungen frühzeitig zu erkennen und gegenzusteuern. Auch technische Herausforderungen wie Latenzzeiten, Warteschlangenmanagement und Eskalationsregeln werden durch diese Herangehensweise beherrschbarer. Sobald ein System beispielsweise nicht mit hinreichender Sicherheit eine Anfrage beantworten kann, werden komplexe Fälle automatisch an Menschen weitergeleitet.
Dies hält Prozesse flüssig und verbessert die Kundenzufriedenheit. Gleichzeitig erhalten Entwickler ein differenziertes Verständnis über Schwachpunkte ihrer KI-Agenten und können diese gezielt verbessern. Für Organisationen, die Agentische Systeme implementieren möchten, ist es essenziell, klare Kriterien zur Beförderung von KI-Agenten durch die Reifegrade einzuführen. Solche Kriterien beruhen auf messbaren Kennzahlen wie der Übereinstimmung mit menschlichen Entscheidungen, der Rate menschlicher Übersteuerungen oder der Verlässlichkeit der Automatisierung über Zeit. Ein stringenter Bewertungsprozess erhöht die Transparenz der Systeme und unterstützt Stakeholder dabei, Vertrauen zu entwickeln und aufrechtzuerhalten.
Zusammengefasst ist der Aufbau agentischer Systeme ein Balanceakt zwischen technologischem Fortschritt und menschlicher Erfahrung. Der pragmatischste und erfolgversprechendste Ansatz ist es, zunächst mit Menschen als KI-Agenten zu starten, um Vertrauen zu schaffen, Daten zu sammeln, Abläufe zu verstehen und Risiken kontrolliert zu managen. Auf diesem stabilen Fundament können KI-Systeme wachsen, ihre Fähigkeiten ausbauen und schließlich als vollautonome Agenten operieren. Die Philosophie „Menschen zuerst“ ist daher kein Rückschritt, sondern eine operative Blaupause für robuste, verlässliche und skalierbare KI-Ökosysteme, die in Zukunft immer mehr gesellschaftliche und wirtschaftliche Prozesse prägen werden.