Der große Disruptor: Agentic AI

von Arwin Roubal und Simon Unterweger

“Die IT-Abteilung jedes Unternehmens wird in Zukunft die Personalabteilung der KI-Agenten sein. Heute verwalten sie Software, in Zukunft werden sie eine Reihe digitaler Agenten betreuen”, sagte NVIDIA-CEO Jensen Huang in seiner Rede auf der Consumer Electronics Show (CES) 2025.

Der nächste Quantensprung in der Entwicklung der künstlichen Intelligenz ist da und hat das Potenzial, den gesamten Finanzsektor zu transformieren. Was vor ein paar Jahren noch wie maßlose Übertreibung geklungen hätte, ist heute in greifbare Nähe gerückt. „Die IT-Abteilung jedes Unternehmens wird in Zukunft die Personalabteilung der KI-Agenten sein. Heute verwalten sie Software, in Zukunft werden sie eine Reihe digitaler Agenten betreuen“, sagte NVIDIA-CEO Jensen Huang in seiner Rede auf der Consumer Electronics Show (CES) 2025. 3 Ähnlich sicher ist sich Vibhor Rastogi, Direktor für Venture Investing bei Citi Ventures. „Autonome KI-Agenten, die menschliches Verhalten simulieren und in komplexen Umgebungen ohne menschliches Eingreifen arbeiten können, werden der heißeste neue Bereich für Risikokapitalinvestitionen sein“. 4 Mit ihrer Meinung sind sie keineswegs allein. Eine Umfrage unter Führungskräften ergab, dass 14 % in ihren Unternehmen bereits KI-Agenten implementiert haben. Fast ein Viertel (23 %) hat bereits Pilotprojekte gestartet. Weitere 61 % bereiten sich auf den Einsatz vor oder prüfen ihn. 5 Der globale Markt für Agentic AI wurde im Jahr 2024 auf 5,25 Milliarden US-Dollar geschätzt und soll bis 2034 mit einer jährlichen Wachstumsrate von 43 % 199,05 Milliarden US-Dollar erreichen. 1 2 Gegenübergestellt mit den Investitionen wirken diese Zahlen klein: Schätzungen zufolge soll das global in KI investierte Kapital 2025 die Marke von 1,5 Billionen US-Dollar erreichen. 12

Generativ vs agentisch

Wenn wir heute von GPT, Gemini, Claude, LLaMA oder Grok als künstliche Intelligenz (KI) sprechen, dann sind damit eigentlich sogenannte Large Language Models (LLMs) gemeint. Vereinfacht gesagt sind das stochastische Systeme, die mit riesigen Textmengen trainiert wurden und menschliche Sprache verstehen und generieren können. Weltweit haben sich Benutzer an generative KI in Form von Chatbots gewöhnt. Diese sind reaktiv und erzeugen Output als Antwort auf menschliche Eingaben. Doch was wäre, wenn die Einsatzmöglichkeiten von LLMs darüber hinausgingen? Wenn man sie als Basis für handelnde Agenten verwenden würde, die autonom Ziele erarbeiten, über mehrere Schritte hinweg planen, Werkzeuge ausführen und ohne ständige Aufforderung mit komplexen Umgebungen interagieren und sich auf Basis von Ergebnissen anpassen? Genau das ist „Agentic AI“. Ein Beispiel aus dem Handel: Stellen Sie sich einen KI-Agenten vor, der Marktdaten analysieren und Markttrends autonom überwachen kann, der Handelssignale entschlüsselt, Strategien anpasst und Risiken in Echtzeit minimiert. 6 Doch auch echte Einsätze dieser Technologie gibt es bereits. So hat das KI-Startup Perplexity einen autonomen Agenten in seinen Browser Comet integriert. Dieser kann beispielsweise selbstständig Emails versenden, einkaufen, Unterlagen kreieren oder sogar selbst Webseiten erstellen. 13
 

Planung und Reflexion

Agentic AI baut auf dem Prinzip des Chain-of-Thought (CoT) Prompting auf, einer Technik, bei der die KI aufgefordert wird, Schritt für Schritt zu denken. Dadurch wird nicht nur der ausgegebene Lösungsweg durch Zwischenergebnisse nachvollziehbarer, sondern auch die Qualität der Antworten verbessert. 8 Auf diese Art kann der Agent „planen“, indem die Schritte zur Problemlösung zunächst aufgeschlüsselt werden. Eine Weiterentwicklung namens „Tree of Thoughts“ (ToT) ermöglicht es dem Agenten, mehrere Lösungswege zu erstellen und unter diesen für das weitere Vorgehen auszuwählen. 9 Im alltäglichen Gebrauch muss der Mensch oft noch durch ein paar Prompts nachschärfen, bevor ein zufriedenstellendes Ergebnis vorliegt. Kritisches Feedback lässt sich nun auch automatisieren, sodass das Modell seine eigene Ausgabe kritisiert und seine Reaktion verbessert. Das passiert bei der sogenannten „Reflexion“, das Modell wird mit seinem eigenen Output automatisch erneut gefüttert und zur Verbesserung aufgefordert.

Mit dem Feedback, das es selbst erstellt, kann das Modell dann zur erneuten Generierung aufgefordert werden. Und man kann über die Selbstreflexion hinausgehen, indem man dem LLM Werkzeuge zur Verfügung stellt, die bei der Bewertung seiner Ergebnisse helfen. 14 15

Tool Use

Früher hatten LLMs das Problem, nicht auf tagesaktuelle Informationen zugreifen zu können. Alle Fragen wurden auf dem Wissensstand aus den Trainingsdaten beantwortet, aber nach dem Wetter von morgen gefragt, gesteht das Modell im besten Fall seine Unwissenheit. Manchmal erzeugt es auch Ausgaben, die kohärent und selbstbewusst klingen, aber sachlich falsch, unsinnig oder erfunden sind, sogenannte „Halluzinationen“. Um das Problem fehlender aktueller Information zu minimieren, wurde „Retrieval-Augmented Generation“ (RAG) eingeführt. Die Modelle konnten nun ihren Kontext mithilfe externer Wissensquellen erweitern und beispielsweise ein oder zwei Webseiten herunterladen, um die Frage nach dem Wetter zu beantworten. Modelle bekamen Zugriff auf einzelne Werkzeuge und konnten so auch Code ausführen. Beispielhaft könnte die Frage „Wenn ich 100 Euro 12 Jahre lang mit einem Zins von 7 % anlege, was habe ich am Ende?“ mit der Anfrage

{
tool: python-interpreter,
code: "100 * (1+0.07)*12"
}

erweitert werden, sodass ein externes Tool rechnet, statt hierfür das eigene interne Transformernetzwerk zu verwenden, welches bei Kalkulationen in der Regel schlechtere Ergebnisse liefert. Das ist ähnlich zu einem Mitarbeiter, der einen Taschenrechner benutzt, weil er an den eigenen Fähigkeiten im Kopfrechnen zweifelt. Für die AI-Agenten geht dieses Prinzip mit dem sogenannten „Tool Use“ nun einen Schritt weiter. Die Modelle können aus einer Vielzahl von Werkzeugen selbstständig wählen 10 11 Durch Interfaces wie das „Model Context Protocol“ (MCP) wird die Verwendung externer Tools und Ressourcen für Agenten vereinheitlicht. 7 Die Interaktionen erfolgen über APIs, die es den Sprachmodellen ermöglichen, Befehle auszugeben, Antworten zu empfangen und so Funktionen auszuführen, denen theoretisch keine Grenzen gesetzt sind, von einfachen Werkzeugen wie Email und Bildprogrammen bis hin zu Robotik und automatisierten Fertigungsanlagen.

Ein autonomes Team: Zusammenarbeit mehrerer Agenten

Um noch komplexere Aufgabenfelder mit Agenten zu bearbeiten und so möglicherweise komplette Unternehmensprozesse zu automatisieren, kann man mehrere Agenten zusammenarbeiten lassen. Sinnvollerweise sind diese Agenten (wie in echten Teams) unterschiedlich spezialisiert, zum Beispiel als Softwareentwickleragent, Produktmanageragent, Designeragent und so weiter. Multiple Agenten können dabei über ein einzelnes oder mehrere LLMs abgebildet sein. Viele reale Prozesse sind bereits daran gewöhnt, komplexe Anforderungen in Unteraufgaben für verschiedene Mitarbeiter aufzuteilen. Frameworks wie AutoGen, Crew AI und Lang- Graph bieten schon heute vielfältige Möglichkeiten zum Erstellen von Multi-Agenten-Lösungen. Zu viel Euphorie wäre aber verfrüht: die Ausgabequalität von Multi-Agenten- Zusammenarbeit ist bislang schwer vorherzusagen. 17

Das Potential nutzen

Die neuesten technischen Fortschritte lassen vermuten, dass die Entwicklung von KI-Agenten erst am Anfang steht. OpenAI veröffentlichte erst vor kurzem "AgentKit", eine Reihe von hochentwickelten Werkzeugen, die das Planen und Implementieren von Agentenworkflows stark erleichtern. Deren Kunde Klarna hat bereits einen Support-Agenten geschaffen, der zwei Drittel aller Tickets bearbeitet, und Clay konnte mit einem Vertriebsagenten sein Wachstum verzehnfachen. 18 Außerdem stellte OpenAI kürzlich "Codex" vor, einen Softwareentwickleragenten, der nicht nur ähnlich wie GitHub Copilot assistiert, sondern an den Entwickler ganze Aufgaben delegieren kann. 19 Jeder neue Durchbruch verringert die Wahrscheinlichkeit für die künftige Notwendigkeit menschli menschlicher Aufsicht und weckt Hoffnungen für neue Maßstäbe in der Prozessautomatisierung. Um autonome Agenten zu involvieren, werden zahlreiche Bankprozesse einer grundlegenden Überarbeitung bedürfen, was eine Begleitung durch Experten mit sowohl technischer Fachkenntnis als auch fundiertem Wissen aus der Anwendungsdomäne unerlässlich macht. 4 Auch für einen „Human on/in the Loop“ Ansatz, bei dem Menschen das letzte Wort über die Agenten behalten, lohnt sich Spezialwissen über die zugrunde liegenden Modelle, technischen Feinheiten und Risiken. Bei einer Technologie, die sich in einer so rasanten, fortlaufenden Entwicklung befindet, braucht es Spezialisten, die am Ball bleiben.

Wir bei Nagler & Company freuen uns darauf, Sie mit unserer fundierten Expertise zu unterstützen. Mit unseren Kenntnissen über Prozesse und unserem technischen Sachverständnis stehen wir bereit, um Sie bei der KI-Transformation zu begleiten.

Arwin Roubal Nagler & Company
Ihr
Ansprechpartner

Arwin Roubal

Standort Graz

+43 676 57 73 95 5

E-Mail
Simon Unterweger Nagler & Company
Ihr
Ansprechpartner

Simon Unterweger

Standort Graz

+43 676 45 33 32 4

E-Mail

Unternehmen