E80: Build Better AI Agents: Context Engineering Over Prompts (Pt. 1)

Key Insights

Malcolm Werchota reveals why your invoice automation, podcast metadata generation, and business workflows keep breaking down—and why it’s not the AI’s fault. The missing piece is context engineering, a concept most people have never heard of.

In this two-part series, Malcolm breaks down Anthropic’s groundbreaking research on how to build AI agents that actually think ahead. Learn why prompt engineering is no longer enough, how attention budget silently kills your automations, what context rot does to long-running tasks, and how the orchestrator pattern allows AI agents to spawn helper agents on demand.

You’ll hear how Malcolm’s team cut invoice processing time from 45 minutes to zero human intervention—and why feeding your AI more data can actually make it dumber. This episode isn’t about magic prompts. It’s about designing the entire environment your AI operates in.

Key topics: AI agent automation challenges, context window vs. attention budget, why mega-prompts fail, orchestrator pattern design, system prompt architecture, tool-calling strategies, and scalable AI workflows.

Perfect for professionals implementing Claude AI, automating business processes, or frustrated with unreliable AI agents. Malcolm’s “Ship First, Study Later” approach means real implementation—not theory.

Part 2 dives into advanced system prompts, minimal tool sets, and managing long-running tasks without context explosion.

WHAT YOU’LL LEARN

  • Why functional AI agents still fail at business automation
  • The difference between prompt vs. context engineering
  • How attention budget and context rot sabotage your workflows
  • The orchestrator pattern: when agents build their own helpers
  • Real-world cases: invoices, podcasts, and process automation
  • Why mega-prompts make AI dumber—and what to do instead
  • Anthropic’s context engineering framework
  • How to design information architecture for Claude and other LLMs

TOOLS & PLATFORMS

  • Claude Code (Anthropic)
  • Claude Sonnet 4.5 (1M token window)
  • Gemini 2.5 (1M token window)
  • ChatGPT (100–200k token window)
  • 10 Valley OS (TenVOS) – context engineering case study

RESOURCES

  • Anthropic Research: Effective Context Engineering for AI Agents
  • Previous Episode: Building Claude Code Agents
  • Previous Episode: 10 Valley OS – Context Engineering in Action

MALCOLM’S KEY INSIGHTS

“It’s like having an employee who follows orders perfectly—but never takes initiative or thinks ahead.”“Context engineering manages everything the model uses: system instructions, tools, message history—not just the prompt.”“The challenge now isn’t crafting perfect prompts. It’s curating the information within the model’s limited attention budget.”“Don’t feed it a billion files. Use the smallest, clearest, highest-signal inputs possible.”

COMING IN PART 2

  • Advanced system prompt structure
  • Minimal tool sets for reliability
  • Handling long-running tasks without context explosion
  • Practical implementation blueprints

For access to the full transcript, join our community!

E80: Warum deine KI-Agenten versagen – Context Engineering als Lösung

Wichtige Erkenntnisse

Sie folgen Anweisungen, machen aber ständig Fehler bei neuen Situationen?

Das Problem liegt nicht an der KI – sondern an der Art, wie du sie baust.

In dieser zweiteiligen Episode enthüllt Malcolm Werchota das Geheimnis hinter wirklich intelligenten KI-Agenten: Context Engineering.

Anders als beim Prompt Engineering, wo du nur eine gute Anweisung schreibst, geht es beim Context Engineering darum, die gesamte Informations-Umgebung deiner KI zu designen – welche Tools sie hat, welche Daten sie sieht und wie sie auf vorherige Erfahrungen zugreifen kann.

Anhand eines realen Beispiels aus seinem Unternehmen – einem Rechnungsverarbeitungs-Agenten, der zwar funktioniert, aber bei jeder neuen Rechnung scheitert – erklärt Malcolm, wie Anthropics Forschung „Effective Context Engineering“ sein Team zum Umdenken gebracht hat: Weg vom Skript-Denken, hin zur Informationsarchitektur.

Du lernst in Teil 1:

  • Was Context Engineering ist und warum es Prompt Engineering ablöst
  • Das Konzept des Attention Budget – warum KI-Agenten wie Goldfische ein begrenztes Gedächtnis haben
  • Was Context Rot ist – und warum zu viele Informationen deine KI dümmer machen
  • Der Unterschied zwischen funktionalen und intelligenten Agenten
  • Wie du Orchestrator-Agenten baust, die sich selbst Helper-Agenten erstellen
  • Praxisbeispiele: Invoice Processing, Podcast-Metadaten u. a.

Malcolms Ansatz: Keine Theorie, sondern praxiserprobte Workflows, die sein Team täglich nutzt – von Rechnungsverarbeitung bis Podcast-Produktion.

Teil 2 behandelt fortgeschrittene Techniken: System-Prompt-Strukturierung, minimale Tool-Sets und Strategien gegen Context-Explosion bei lang laufenden Tasks.

Perfekt für Unternehmer und Teams, die KI-Automatisierung ernst nehmen.

Ship First, Study Later – aber ship es richtig.

KEY TAKEAWAYS

1️⃣ Mehr als Prompt Engineering – es geht um die gesamte Informations-Umgebung

2️⃣ Weniger ist mehr – kleinstes Set hochsignaler Infos liefert beste Ergebnisse

3️⃣ Orchestrator > Monolith – Delegiere an Helper-Agents

4️⃣ Context Rot ist real – mehr Infos → schlechtere Performance

5️⃣ Struktur statt Chaos – Prompts, Tools und Ordner klar organisieren

RESSOURCEN

• Anthropic: „Effective Context Engineering for AI Agents“

• Tool: Claude Code (von Anthropic)

• Verwandte Episode: 10 Valley OS

• Use Cases: Invoice Processing, Podcast-Metadaten, Call-Feedback

FÜR WEN IST DIE EPISODE?

  • Unternehmer & Teams mit KI-Automatisierung
  • Entwickler mit Claude Code oder anderen Agents
  • Alle, deren KI trotz guter Prompts dumm reagiert
  • Professionals, die vom Trial-and-Error zum System wechseln wollen

MALCOLMS PHILOSOPHIE

Ship First, Study Later.

Praxis statt Theorie – aus dem echten Werchota.ai Workflow.

Um auf das vollständige Transkript zuzugreifen, treten Sie unserer Community bei!