Agent SDK

Managed Agents — Research Agent

Fünf progressive Agent-Demos mit dem Claude Agent SDK — von Single-Agent One-Shot bis Multi-Agent-Orchestrierung mit Plan-and-Execute + Reflection. Reports durchschnittlich 2.253 Wörter mit 8-18 verifizierten Quellen. Haiku für Planning/Reflection, Sonnet für Execution. HTTP-API-Server, n8n-Integration, Docker-ready.

42 Tests
5 Demos
~2.2K Wörter/Report
$0.42–1.97 Kosten/Run

Architektur

Pipeline

Topic empfangen

CLI oder HTTP-API nimmt das Forschungsthema entgegen.

Plan erstellen (Haiku)

Haiku generiert einen strukturierten Forschungsplan mit 3-5 Fragen.

Recherche ausführen (Sonnet)

Sonnet recherchiert mit WebSearch und WebFetch, Sub-Agents arbeiten parallel.

Reflect & Report

Haiku bewertet den Report, korrigiert bei Bedarf, Meta-Info wird angehängt.

Tech Stack

Technologien

Agent Framework
Claude Agent SDK 0.1.58WebSearchWebFetch
Backend
Python 3.12StarletteUvicorn
Infra & Test
Docker Composen8n 2.11pytest

Qualitätssicherung

Test-Ergebnisse

42
Tests Gesamt
42
Bestanden
0
Fehlgeschlagen
100%
Coverage

Engineering Decisions

Architektur-Entscheidungen

Entscheidung

Multi-Model-Strategie (Haiku + Sonnet)

Planning und Reflection benötigen weniger Reasoning-Qualität als die eigentliche Recherche. Haiku ($0.04) statt Sonnet ($0.20) für diese Phasen spart 80% der Nebenkosten ohne Qualitätsverlust.

Entscheidung

Claude Agent SDK statt LangChain

Native SDK-Integration bietet direkten Zugriff auf WebSearch/WebFetch als Built-in-Tools. Kein Tavily-Key nötig, kein Framework-Overhead, direkte Anthropic-API-Nutzung.

Entscheidung

5 progressive Demos statt monolithischer Agent

Jede Demo zeigt ein spezifisches Pattern (Single, Multi, API, Plan+Reflect, Combined). Das demonstriert systematisches Agent-Design und Framework-Verständnis.