Claude Managed Agents: Anthropic betreibt deine AI-Agenten jetzt selbst

Anthropic hat Claude Managed Agents gestartet. Sandbox, Memory, Permissions, Tracing — alles komplett gemanagt. Notion, Asana und Rakuten sind schon drauf. Was das für Unternehmen bedeutet die AI-Agenten in Produktion bringen wollen.
Artur Kokoev zu Anthropic Claude Managed Agents

Anthropic hat am 8. April 2026 Claude Managed Agents in Public Beta gestartet. Das ist kein weiteres SDK-Update. Das ist ein Paradigmenwechsel für alle die AI-Agenten in Produktion bringen wollen.

Das Versprechen: Von Prototyp zu Launch in Tagen statt Monaten. Und die ersten Kunden sind keine Unbekannten — Notion, Asana und Rakuten sind schon dabei.

Was Managed Agents eigentlich sind

Bisher bedeutete ein AI-Agent in Produktion: Du baust die Infrastruktur selbst. Sandbox für Code-Execution. State Management. Credentials verwalten. Permissions scopen. Tracing einrichten. Und bei jedem Model-Update darfst du deinen Agent-Loop neu schreiben.

Anthropic übernimmt jetzt diesen ganzen Stack. Du definierst nur noch drei Dinge: Was der Agent tun soll, welche Tools er hat und welche Guardrails er einhalten muss. Den Rest erledigt Anthropics Infrastruktur.

Konkret bedeutet das: Sandboxed Code Execution. Checkpointing — du kannst Sessions pausieren und fortsetzen. Credential Management mit scoped Permissions. End-to-End Tracing. Und ein integriertes Orchestration-Harness das entscheidet wann welches Tool aufgerufen wird und wie mit Fehlern umgegangen wird.

Das ist im Grunde Anthropics Antwort auf die Frage: Warum baut eigentlich jeder Agent-Builder dieselbe Infrastruktur immer wieder neu?

Wie das technisch funktioniert

Anthropic beschreibt Managed Agents als «Meta-Harness» — ein System das unabhängig vom konkreten Agent-Harness ist, das du heute nutzt. Die Idee dahinter ist clever: Genauso wie Betriebssysteme damals Hardware virtualisiert haben, virtualisiert Managed Agents die Agent-Infrastruktur.

Die Session hält einen Context-Objekt das außerhalb von Claudes Context Window lebt. Der Context wird dauerhaft im Session Log gespeichert. Über die getEvents() Schnittstelle kann das Modell den Kontext abfragen und sich gezielt einzelne Slices aus dem Event-Stream holen.

Das ist wichtig weil es ein Problem löst das jeder kennt der länger mit Agenten arbeitet: Context-Window-Management wird bei längeren Tasks schnell zum Flaschenhals. Mit dem externen Session-Context kannst du Agenten theoretisch beliebig lange laufen lassen ohne dass der Context explodiert.

Der Preis

Anthropic verlangt zwei Dinge. Erstens die normalen Token-Kosten nach Standard-API-Preisen. Zweitens 0,08 Dollar pro Session-Stunde für die aktive Runtime.

Das klingt erstmal fair. Wenn du deinen Agent täglich 4 Stunden laufen lässt, kostet dich die Infrastruktur 32 Cent am Tag. Im Monat sind das unter 10 Dollar reine Infrastrukturkosten, zuzüglich der Token-Kosten die du sowieso zahlen würdest.

Wer das mal hochrechnet gegenüber dem Aufwand eigene Sandbox-Infrastruktur zu bauen und zu maintainen, kommt schnell auf den Trichter warum Notion und Asana gleich mit an Bord sind.

Wer davon profitiert

Die Zielgruppe ist klar definiert. Managed Agents ist nicht für Hobby-Entwickler gemacht die mal schnell einen Chatbot bauen. Es ist für Teams die AI-Agenten als produktives Feature in ihr Produkt integrieren wollen.

Die typische Situation: Du hast ein SaaS-Produkt. Du willst deinen Nutzern einen AI-Agent zur Verfügung stellen der echte Aktionen in ihrem Account ausführt. Bisher hieß das: Monate für Infrastruktur, Security-Audits, Debugging bei Agent-Loops die hängen bleiben. Mit Managed Agents startest du in Tagen.

Agencies profitieren besonders. Wer für Kunden Voice Agents oder Workflow-Automation-Agents baut, kann sich plötzlich auf das konzentrieren was Mehrwert bringt: Die Business-Logik, die Integrationen, die User Experience. Statt wochenlang an Orchestrierung und State-Handling zu basteln.

Was das Lock-In-Problem angeht

Und hier kommt der Haken. Managed Agents läuft auf Anthropics Infrastruktur. Du bist Vendor-Locked.

Das ist nicht automatisch schlimm. AWS-Kunden sind auch gelocked und leben damit. Aber du solltest dir bewusst sein: Wenn du deinen Agent auf Managed Agents baust, ist ein Wechsel zu Gemini oder GPT nicht mit einem Config-Switch erledigt. Du würdest den ganzen Harness neu aufsetzen müssen.

Für viele Use Cases ist das OK. Aber wer auf maximale Flexibilität setzt und sich nicht auf einen Anbieter festnageln will, sollte überlegen ob OpenRouter plus eigene Orchestrierung nicht der bessere Weg ist.

Meine Einschätzung

Claude Managed Agents ist das wichtigste Produkt-Update von Anthropic seit Claude Code. Nicht wegen der Tech — die ist solide aber nicht revolutionär. Sondern wegen der Positionierung.

Anthropic verschiebt sich weg vom reinen Model-Provider hin zur Agent-Plattform. Das ist direkt gegen OpenAIs Assistants API und Googles Vertex AI gerichtet. Und es ist eine Ansage: Wenn du Agenten in Produktion bringen willst, kauf nicht nur den Brain, kauf die ganze Umgebung gleich mit.

Für KMU die bisher vor der Komplexität zurückgeschreckt sind, ist das ein echter Enabler. Das erste Mal kannst du ohne DevOps-Team und ohne Monate an Setup-Arbeit einen echten produktiven AI-Agenten starten. Die Eintrittshürde ist plötzlich ähnlich niedrig wie bei einem Stripe-Integration.

Ich werde Managed Agents in den nächsten Wochen in eigenen Kundenprojekten testen. Aus Erfahrung zahlt sich Anthropics Ansatz aus wenn es um Stabilität und Tool-Integration geht. Skeptisch bleibe ich bei den Preisen wenn Tasks lang laufen — die 0,08 Dollar pro Session-Stunde können sich über viele parallele Agents schnell summieren.

Was du jetzt tun solltest

Wenn du gerade mit der Überlegung spielst einen AI-Agent in dein Produkt zu integrieren: Wart nicht, sondern nutze die Public Beta. Der Zugang ist offen über die Claude Console, Claude Code und das neue CLI-Tool.

Falls du schon einen Agent gebaut hast und über Skalierung nachdenkst: Mach die Rechnung ob Managed Agents dir nicht einen Großteil deiner Ops-Kosten spart. Vor allem wenn du mit eigener Infrastruktur kämpfst oder Security-Audits anstehen.

Und wenn du bisher gar nichts mit Agenten gemacht hast weil dir der Aufwand zu groß war: Die Ausrede zählt nicht mehr. Managed Agents ist genau der Moment an dem sich das Rechnen ändert.

Der Vergleich zu OpenAI Assistants API und Vertex AI Agents

Managed Agents ist nicht das erste Produkt in dieser Kategorie. OpenAI hat seit 2024 die Assistants API, Google bietet Vertex AI Agent Builder. Warum ist Anthropics Ansatz trotzdem relevant?

Der Unterschied liegt im Fokus. OpenAIs Assistants API ist im Grunde eine gemanagte Version der Chat Completions API mit Thread-Handling und ein paar Tools. Sie ist praktisch für Chat-Anwendungen aber schwach wenn es um lang laufende autonome Agenten geht. Der State hängt an Threads die nicht für komplexe Multi-Step-Tasks designed sind.

Vertex AI Agent Builder ist umfangreicher aber auch deutlich komplexer. Du bekommst viele Bausteine aber auch viel Konfigurationsaufwand. Für Enterprise-Kunden die sowieso schon im Google-Cloud-Ökosystem sind ist das OK. Für alle anderen ist die Eintrittshürde hoch.

Claude Managed Agents positioniert sich dazwischen. Einfacher als Vertex, ernster gemeint als Assistants API. Das Meta-Harness-Konzept ist dabei der eigentliche Clou. Anthropic sagt: Wir wissen selbst noch nicht genau wie die besten Agent-Harnesses in einem Jahr aussehen. Deshalb bauen wir eine Plattform die flexibel genug ist um verschiedene Harnesses zu unterstützen.

Praxisbeispiel: Ein Support-Agent mit Managed Agents

Damit das alles nicht zu abstrakt bleibt, ein konkretes Beispiel. Stell dir vor du betreibst ein SaaS-Tool und willst einen First-Level-Support-Agent bauen der echte Aktionen im Kunden-Account ausführen kann.

Ohne Managed Agents sieht das so aus: Du brauchst eine Sandbox für Code-Execution falls der Agent Scripts ausführen muss. Du brauchst ein Permission-System damit der Agent nur Aktionen auf dem richtigen Account ausführt. Du brauchst State-Management damit der Agent sich an frühere Konversationen erinnert. Du brauchst Tracing damit du debuggen kannst wenn etwas schief geht. Und du brauchst ein Retry-System wenn API-Calls fehlschlagen.

Das sind gut drei bis vier Wochen Entwicklungszeit für ein erfahrenes Team. Plus laufende Wartung. Plus die Diskussion mit deinem Security-Team über die Sandbox-Isolation.

Mit Managed Agents definierst du:

  1. Welche Tools der Agent hat (z.B. API-Zugriff auf dein Backend)
  2. Welche Permissions diese Tools haben (z.B. nur Read-Only außer bei explizit erlaubten Aktionen)
  3. Welche Guardrails gelten (z.B. niemals Daten an externe URLs senden)
  4. Wie der System-Prompt aussieht

Das ist ein Tagesprojekt. Maximal. Und du startest direkt mit Production-grade-Infrastruktur.

Die kritischen Fragen die du stellen solltest

Bevor du Managed Agents in Produktion einsetzt, solltest du dir ein paar Fragen ehrlich beantworten.

Wo liegen meine Daten? Managed Agents läuft auf Anthropics Infrastruktur. Für DSGVO-sensible Anwendungen musst du prüfen ob die Data Processing Agreements für deine Anforderungen ausreichen. Anthropic hat EU-Data-Residency-Optionen aber nicht alle Features sind in allen Regionen verfügbar.

Wie sieht mein Exit-Szenario aus? Was passiert wenn Anthropic die Preise verdreifacht oder den Service abschaltet? Du solltest zumindest theoretisch wissen wie du deinen Agent auf eigene Infrastruktur portieren könntest. Ein Agent der komplett auf Managed-Agents-APIs gebaut ist, lässt sich nicht einfach auf AWS oder GCP umziehen.

Habe ich genug Observability? Das eingebaute Tracing ist gut aber du solltest eigene Logs schreiben für alles was business-kritisch ist. Vertraue nie blind auf Third-Party-Observability wenn es um deine Produktionsumgebung geht.

Sind die Session-Kosten vorhersehbar? 0,08 Dollar pro Session-Stunde klingt wenig bis du parallele Workloads hast. Wenn dein Service 500 gleichzeitige User hat und jeder User einen eigenen Agent-Session braucht, rechne das durch bevor du committest.

Was als nächstes kommt

Anthropic hat in der Ankündigung angedeutet dass Managed Agents nur der Anfang ist. Geplant sind Multi-Agent-Orchestrierung — also mehrere Agenten die kollaborieren — Voice-Integration und tiefere Integration mit Claude Cowork.

Vor allem die Voice-Integration wird spannend. Wer heute Voice Agents baut, kennt den Aufwand: TTS, STT, Turn-Taking, Interruption-Handling, State-Persistenz über Calls hinweg. Wenn Anthropic das alles in Managed Agents packt, wird das den Markt für Voice-AI-Anbieter wie Vapi oder Retell ordentlich durcheinander wirbeln.

Kostenloses Handout: Alle wichtigen Infos zu Claude Managed Agents auf einen Blick — Hier herunterladen (PDF)

Du willst einen Claude Managed Agent für dein Unternehmen aufsetzen? Lass uns reden.

Beitrag teilen:

Abonniere unseren Newsletter für mehr News