Token-Optimierung

Code-First n8n POC

5 Proof-of-Concept Workflows, die 96% Token-Ersparnis durch Code-Mode gegenueber traditionellen n8n-AI-Agents beweisen. Vollstaendig in TypeScript mit n8nac entwickelt und mit Benchmarks belegt. Zeigt, dass HTTP-Requests im Code-Node statt Agent-Toolcalls die LLM-Kosten drastisch senken.

96% Token-Ersparnis
5 POC Workflows
0€ LLM-Kosten
1 Benchmark

Architektur

Pipeline

Pattern identifizieren

Analyse wo traditionelle Agent-Toolcalls unnoetig Tokens verbrauchen.

Code-Mode implementieren

HTTP-Requests und Logik in Code-Nodes statt als Agent-Tool-Aufrufe.

Benchmarken

Token-Verbrauch und Latenz beider Ansaetze messen und dokumentieren.

Ergebnis: 96% Ersparnis

Code-Mode eliminiert O(n^2) Token-Wachstum der Agent-Konversation.

Tech Stack

Technologien

Workflow
n8nn8nacTypeScript
Benchmark
Token-AccountingVergleichsmessung
Pattern
Code-ModePromise.allSettledParallel HTTP

Engineering Decisions

Architektur-Entscheidungen

Entscheidung

Code-Mode statt Agent-Pattern

ReAct-Agents replizieren die gesamte Konversationshistorie bei jedem Toolcall. Code-Nodes fuehren HTTP-Requests direkt aus und uebergeben nur das Ergebnis an die LLM — ein struktureller Vorteil, keine Optimierung.

Entscheidung

Benchmark-First Methodik

Jeder POC wird mit Token-Zahlen und Latenz gemessen bevor er als Verbesserung gilt. Keine Annahmen — nur Messergebnisse zaehlen.