Future{hacks}: Autopilot mit Gurt: Wie Agentic AI wirklich geschäftstauglich wird

„Wir brauchen bis Q4 autonome Agenten.“ Das klingt nach Tempo und somit nach Kostenersparnis. Unter Agentic AI versteht man Systeme, die Ziele eigenständig in Teilaufgaben zerlegen, Aktionen über Tools ausführen und ihre Strategie anhand der Ergebnisse anpassen.
Ob die Integration eines KI-Agenten tatsächlich Sinn macht, ist abhängig vom individuellen Use Case. Es sollten aber definitiv folgende 3 Punkte vorab geklärt sein: Was darf der Agent erledigen, wo endet seine Befugnis, wer trägt Verantwortung im Fehlerfall.
Richtig eingesetzt entlasten Agenten Teams von repetitiven Aufgaben, arbeiten rund um die Uhr ohne Warteschlange, beschleunigen Durchlaufzeiten und halten Regeln konsequent ein. Sie orchestrieren mehrere Systeme in einer nachvollziehbaren Abfolge, statt Daten manuell zu kopieren und lernen aus Feedback, sodass Prozesse mit jedem Durchlauf präziser werden.
Wie baut man solche Agenten überhaupt
Man braucht keine Spezialsoftware. Es gibt Baukästen, die Agenten direkt erstellen und betreiben, zum Beispiel Microsoft Copilot Studio mit Multi-Agent-Orchestrierung. Für Fachbereiche existieren Low-Code-Brücken wie Google AppSheet mit Gemini-Tasks, die KI-Schritte wie PDF- oder Bild-Extraktion zu Bausteinen im Prozess machen. Und es gibt Orchestrierer wie n8n, die Rechte, Freigaben, Prüfregeln und Protokolle über mehrere Systeme hinweg durchsetzen. Entscheidend ist nicht das Modell, sondern ob die Plattform saubere Rollen und Rechte, Audit-Trails und Fallbacks unterstützt.
Warum gerade jetzt
2025 ist der Sprung von der Demo in den Betrieb möglich, die Tools sind reif genug für den Einsatz in der breiten Masse. Copilot Studio koordiniert mehrere Agenten und lässt sie ab Juli über WhatsApp laufen, was echte End-to-End-Automatisierung in verbreiteten Kundenkanälen erleichtert. Zugleich zeigt Workday Forschung, dass 75 Prozent der Beschäftigten gern mit KI-Agenten zusammenarbeiten würden, aber nur etwa 30 Prozent damit einverstanden wären, von einer KI geführt zu werden. Technik und Akzeptanz sind da, die Leitplanken müssen mitwachsen.
Sicherheit ist Teil des Designs, nicht Nachtrag
Sicherheitsforschende von Zenity Labs demonstrierten 2025 in einem Laborfall, wie ein Copilot-Studio-Agent durch eine Zero-Click-Prompt-Injection zu Datenabflüssen verleitet wurde. Microsoft blockierte die konkrete Payload mit einem Prompt-Shielding Update, das Angriffsmuster bleibt laut Studie grundsätzlich möglich. Konsequenz für Entscheiderinnen und Entscheider: Governance schlägt Gutgläubigkeit.
Nutzen und Notwendigkeit eines Operating Layer
Der Operating Layer ist die Schutz- und Steuerungsschicht um den Agenten. Er sorgt dafür, dass Autonomie messbar, bezahlbar und sicher bleibt. Ohne ihn entstehen Schattenprozesse, Kostenkaskaden und Haftungsrisiken. Die folgenden Punkte sind das kleinste Set an Regeln, das in der Praxis zuverlässig funktioniert. Sie sind bewusst knapp gehalten, damit Teams sie sofort umsetzen können.
Operating Layer in sechs kompakten Punkten
- Zugriff: Least-Privilege einrichten. Der Agent bekommt nur die Systeme und Aktionen, die er für seinen Auftrag braucht. Sensible Daten zentral verwalten und den Scope pro Use Case begrenzen.
- Stopp-Punkte und Freigaben: Menschliche Bestätigung bei Geldflüssen, Exporten und Änderungen an Stammdaten. Schwellenwerte klar definieren und dokumentieren.
- Policy-Gates und Sicherheitsnetze: Schreibende Aktionen nur nach Regelprüfung ausführen. Max-Steps, Rate-Limits und ein Budget pro Episode setzen. Bei Regelverstoß sofort abbrechen.
- Qualität vor Livegang: Mit Benchmark Test Sets testen, inklusive Negativfällen. Einen sicheren Rückfallpfad vorsehen, falls Ergebnisse im Betrieb unter Zielwerte fallen.
- Messung im Betrieb: Wenige, aber harte KPIs verfolgen. Containment Rate als Anteil der Fälle ohne menschliche Hilfe. Median der Zeit bis Lösung. First Contact Resolution, FCR, als Erstlösungsquote. CSAT und DSAT als Customer Satisfaction und Dissatisfaction. False-Action-Rate als Anteil fehlerhafter Aktionen. Kosten pro gelöster Einheit.
- Orchestrierung und Audit: Regeln operativ verankern, zum Beispiel in n8n. Freigaben, Protokolle, Versionen, Umgebungen und ein Kill-Switch gehören in den Workflow. So steht Governance nicht nur im Handbuch, sondern läuft mit.
Praxis: Wirkung und Warnsignal
Dass Agenten echten Nutzen stiften können, zeigt Klarna. Der AI-Assistant übernahm im ersten Monat zwei Drittel aller Service-Chats, führte 2,3 Millionen Gespräche, senkte die Lösungszeit von elf Minuten auf unter zwei Minuten, reduzierte Wiederholanfragen um 25 Prozent, erreichte Kundenzufriedenheit auf dem Niveau menschlicher Agents und entsprach etwa der Arbeit von 700 Vollzeitkräften. Diese Kennzahlen machen den Einfluss auf Geschwindigkeit, Qualität und Kosten messbar.
Die Sicherheitsseite bleibt lehrreich, auch wenn es ein Laborfall war. Im Zenity Szenario genügte eine präparierte Eingabe, die wie normale Nutzerdaten aussah. Der Agent griff danach automatisch auf verbundene Systeme zu. Es war ein Mock-Datensatz, also kein Produktivleck. Die Lehre ist klar. Trigger nur aus vertrauenswürdigen Quellen, keine offenen E-Mail-Postfächer mit produktiven Rechten, strenge Policy-Gates vor jeder schreibenden Aktion, Human-in-the-Loop für Exporte und Geldflüsse, zentral kuratierte Workflows statt loser Scripts.
Unser Future{hacks} Fazit
Starte mit genau einem Vorgang, der klar geregelt ist, wenige Ausnahmen hat und ausreichend Volumen mitbringt. Formuliere den gewünschten Outcome messbar und erzwinge Verbote, Freigaben, Protokolle sowie Budgetlimits in der Orchestrierung. Zielkorridor zum Start: 60 bis 70 Prozent Containment im eng geschnittenen Use Case, Sekunden statt Minuten in der Medianzeit, FCR rauf, CSAT und DSAT auf Augenhöhe mit menschlichen Agents, False-Action-Rate im Promillebereich und Kosten pro gelöster Einheit unter der bisherigen Basis.
Wenn diese Leitplanken stehen, lohnt das Ausrollen in benachbarte Vorgänge. 2025 sind die Werkzeuge reif genug. Mit Auftrag, Grenzen und Messung werden Agenten vom Showcase zum belastbaren Baustein der Wertschöpfungskette. Aber eine Umsetzung am besten nur mit Plan und dem richtigen Know-how ansonsten kann der AI Agent ganz schnell zum Datenspion werden.
Markus Kirchmaier ist Prokurist & Partner bei LEAN-CODERS und beschäftigt sich seit Jahren intensiv mit dem IT-Arbeitsmarkt sowie modernen IT-Systemen und technologischen Entwicklungen.