Agentic Engineering Workshop — AI Coding Assistants richtig nutzen

Ein zweitägiger Workshop bringt dich auf Profi-Level. Dein Shortcut zum AI Power User. Hör auf zu experimentieren, hol dir das Wissen vom Experten.

Entwickler arbeitet mit KI-Tools

Die Workshop-Inhalte im Überblick

Context Architecture

Der Agent kennt deine Domain, deine Konventionen und deine Business-Anforderungen — und wird mit jeder Session besser. Weil du ein lebendes Context-System aufgebaut hast, das ihn zum echten Teammitglied macht. Der Agent hilft dabei: Codebase analysieren, Konventionen vorschlagen, Dokumentation entwerfen — dann reviewst und verfeinerst du.

Techniken & Tools
  • Business-first Context-Layering (Domain → Requirements → Architektur → Implementierung)
  • Produktionsreife CLAUDE.md schreiben
  • Agent-gestützte Context-Generierung
  • Wissen in Skill Files aufteilen
  • /init Bootstrapping
  • 60%-Regel für Context-Kapazität
  • Context zwischen Phasen gezielt neu aufbauen
  • Agent-Fehler tracken und systematisch verhindern
Konsistente, hochwertige Ergebnisse über Sessions hinweg. Das Context-Loss-Problem verschwindet, wenn der Context architektonisch aufgebaut ist — nicht ad hoc.

Planning-First Engineering

Du skizzierst die Architektur, der Agent gibt Rückmeldung mit seiner eigenen Perspektive, ihr iteriert gemeinsam — dann wird mit Vertrauen umgesetzt. Du architekturierst mehr als du diktierst, wie beim Führen eines Teams.

Techniken & Tools
  • Plan-Mode-Workflow
  • /ultrathink für rigoroses Reasoning
  • Bewusst vage Prompts für die Architektur-Perspektive des Modells
  • Iterative Plan-Verfeinerung
  • Richtigen Moment für den Wechsel von Plan zu Execution erkennen
  • Architectural Decision Records mit KI-Unterstützung
Die Lücke zwischen „fühlt sich produktiv an“ und „ist produktiv“ schließt sich. Wenn der Plan stimmt, ist die Umsetzung schnell und sicher.

Cost & Token Efficiency

Vorhersehbare KI-Kosten, keine Rate-Limit-Überraschungen. Modellauswahl wird zur Engineering-Entscheidung: Opus für Planung und komplexes Reasoning, Haiku für Ausführung und einfache Tasks.

Techniken & Tools
  • Modellauswahl-Strategie (Opus/Sonnet/Haiku)
  • 60%-Regel für Context-Kapazität
  • /compact für Context-Komprimierung
  • /handoff und HANDOFF.md für Session-Persistenz
  • Context-Nutzung monitoren
  • Wissen, wann KI nicht die Antwort ist
Die 200€/Monat-Investition liefert konsistenten Wert statt unberechenbarem Burnout.

Closing the Loop

Der Agent testet seinen eigenen Code, erkennt Fehler und iteriert — bevor du überhaupt reviewst. Power-User berichten 2–3x bessere Codequalität, wenn Agenten CI/CD, Test-Suites und Browser-Automatisierung als Self-Assessment-Tools haben.

Techniken & Tools
  • Write-Test-Iterate-Loops
  • Playwright MCP für Browser-Tests
  • TDD mit Agenten (Test first, Agent implementiert)
  • tmux Parallel-Monitoring
  • Bash-Scripts als Quality Gates
  • /review mit sekundären Modellen
  • CI/CD-Integration und Pre-Commit-Hooks
  • Agent-gestütztes Assessment-Framework erstellen
Das „fast richtig, aber nicht ganz“-Problem — die häufigste Beschwerde über KI-Code — wird beherrschbar. Verification verwandelt KI von „generiert plausiblen Code“ zu „liefert getesteten Code“.

Multi-Agent Orchestration

Ein Agent implementiert ein Feature, ein anderer schreibt parallel Tests, ein dritter reviewt den PR — alle auf separaten Branches, gleichzeitig. Wenn der Hauptagent steckenbleibt, liefert ein Research-Agent Optionen als Markdown.

Techniken & Tools
  • Main+Support-Agent-Pattern
  • Git Worktrees für parallele Isolation
  • --background Flag für asynchrone Tasks
  • Research-Sub-Agenten als Ausweg bei Loops
  • Markdown-basierte Plan-Dokumente für Review
  • Task-Dekompositions-Muster
  • Agent Teams (Anthropic v2.1.32)
  • Failure-Recovery-Workflows
Parallele Ausführung über ein Feature hinweg — Implementierung, Tests und Review gleichzeitig. Die Fähigkeit, die den täglichen Workflow am stärksten verändert.

Production Safety & Red Lines

Ein klares Safety-Framework: Was der Agent autonom darf, was Review braucht, was er nie tut. Kein Raten, kein „Hoffentlich hab ich alles erwischt“. Red Lines sind vorab definiert: Force-Push, Production-Deploys, Credential-Handling.

Techniken & Tools
  • Permission-Konfiguration
  • .claude/settings.json Allowlists
  • Pre-Commit-Hooks
  • Security-Review-Patterns
  • „Wann nicht?“-Entscheidungsframework
  • Halluzinations-anfällige Tasks identifizieren
  • API-Key-Handling und Dependency-Management
Vertrauen, KI-Agenten in produktionsnahen Workflows einzusetzen — ohne die Angst. Das Framework skaliert auf Teams: Alle folgen denselben Red Lines.

KI in regulierten Umgebungen

DSGVO ist kein binärer Blocker. Es gibt ein Spektrum von „keine Cloud-Tools“ bis „volle Cloud mit DPA“. Self-Hosted-Optionen existieren, Datenresidenz-Fragen haben konkrete Antworten. Proaktive Compliance verhindert das Shadow-IT-Problem.

Techniken & Tools
  • Datenresidenz-Mapping
  • DPA-Bewertung
  • Self-Hosted-Agent-Optionen
  • Compliance-Dokumentations-Templates
  • Shadow-IT-Risiko-Mitigation
  • Interne Freigabe-Workflows
KI-Adoption in regulierten Umgebungen wird zur gesteuerten Entscheidung, nicht zur Blockade. Frühe Adopter im deutschen Enterprise-Markt gewinnen einen Karrierevorteil.
Tag 1
Context Architecture

Der Agent kennt deine Domain, deine Konventionen und deine Business-Anforderungen — und wird mit jeder Session besser. Weil du ein lebendes Context-System aufgebaut hast, das ihn zum echten Teammitglied macht. Der Agent hilft dabei: Codebase analysieren, Konventionen vorschlagen, Dokumentation entwerfen — dann reviewst und verfeinerst du.

Techniken & Tools
  • Business-first Context-Layering (Domain → Requirements → Architektur → Implementierung)
  • Produktionsreife CLAUDE.md schreiben
  • Agent-gestützte Context-Generierung
  • Wissen in Skill Files aufteilen
  • /init Bootstrapping
  • 60%-Regel für Context-Kapazität
  • Context zwischen Phasen gezielt neu aufbauen
  • Agent-Fehler tracken und systematisch verhindern
Konsistente, hochwertige Ergebnisse über Sessions hinweg. Das Context-Loss-Problem verschwindet, wenn der Context architektonisch aufgebaut ist — nicht ad hoc.
Planning-First Engineering

Du skizzierst die Architektur, der Agent gibt Rückmeldung mit seiner eigenen Perspektive, ihr iteriert gemeinsam — dann wird mit Vertrauen umgesetzt. Du architekturierst mehr als du diktierst, wie beim Führen eines Teams.

Techniken & Tools
  • Plan-Mode-Workflow
  • /ultrathink für rigoroses Reasoning
  • Bewusst vage Prompts für die Architektur-Perspektive des Modells
  • Iterative Plan-Verfeinerung
  • Richtigen Moment für den Wechsel von Plan zu Execution erkennen
  • Architectural Decision Records mit KI-Unterstützung
Die Lücke zwischen „fühlt sich produktiv an“ und „ist produktiv“ schließt sich. Wenn der Plan stimmt, ist die Umsetzung schnell und sicher.
Cost & Token Efficiency

Vorhersehbare KI-Kosten, keine Rate-Limit-Überraschungen. Modellauswahl wird zur Engineering-Entscheidung: Opus für Planung und komplexes Reasoning, Haiku für Ausführung und einfache Tasks.

Techniken & Tools
  • Modellauswahl-Strategie (Opus/Sonnet/Haiku)
  • 60%-Regel für Context-Kapazität
  • /compact für Context-Komprimierung
  • /handoff und HANDOFF.md für Session-Persistenz
  • Context-Nutzung monitoren
  • Wissen, wann KI nicht die Antwort ist
Die 200€/Monat-Investition liefert konsistenten Wert statt unberechenbarem Burnout.
Tag 2
Closing the Loop

Der Agent testet seinen eigenen Code, erkennt Fehler und iteriert — bevor du überhaupt reviewst. Power-User berichten 2–3x bessere Codequalität, wenn Agenten CI/CD, Test-Suites und Browser-Automatisierung als Self-Assessment-Tools haben.

Techniken & Tools
  • Write-Test-Iterate-Loops
  • Playwright MCP für Browser-Tests
  • TDD mit Agenten (Test first, Agent implementiert)
  • tmux Parallel-Monitoring
  • Bash-Scripts als Quality Gates
  • /review mit sekundären Modellen
  • CI/CD-Integration und Pre-Commit-Hooks
  • Agent-gestütztes Assessment-Framework erstellen
Das „fast richtig, aber nicht ganz“-Problem — die häufigste Beschwerde über KI-Code — wird beherrschbar. Verification verwandelt KI von „generiert plausiblen Code“ zu „liefert getesteten Code“.
Multi-Agent Orchestration

Ein Agent implementiert ein Feature, ein anderer schreibt parallel Tests, ein dritter reviewt den PR — alle auf separaten Branches, gleichzeitig. Wenn der Hauptagent steckenbleibt, liefert ein Research-Agent Optionen als Markdown.

Techniken & Tools
  • Main+Support-Agent-Pattern
  • Git Worktrees für parallele Isolation
  • --background Flag für asynchrone Tasks
  • Research-Sub-Agenten als Ausweg bei Loops
  • Markdown-basierte Plan-Dokumente für Review
  • Task-Dekompositions-Muster
  • Agent Teams (Anthropic v2.1.32)
  • Failure-Recovery-Workflows
Parallele Ausführung über ein Feature hinweg — Implementierung, Tests und Review gleichzeitig. Die Fähigkeit, die den täglichen Workflow am stärksten verändert.
Production Safety & Red Lines

Ein klares Safety-Framework: Was der Agent autonom darf, was Review braucht, was er nie tut. Kein Raten, kein „Hoffentlich hab ich alles erwischt“. Red Lines sind vorab definiert: Force-Push, Production-Deploys, Credential-Handling.

Techniken & Tools
  • Permission-Konfiguration
  • .claude/settings.json Allowlists
  • Pre-Commit-Hooks
  • Security-Review-Patterns
  • „Wann nicht?“-Entscheidungsframework
  • Halluzinations-anfällige Tasks identifizieren
  • API-Key-Handling und Dependency-Management
Vertrauen, KI-Agenten in produktionsnahen Workflows einzusetzen — ohne die Angst. Das Framework skaliert auf Teams: Alle folgen denselben Red Lines.
KI in regulierten Umgebungen

DSGVO ist kein binärer Blocker. Es gibt ein Spektrum von „keine Cloud-Tools“ bis „volle Cloud mit DPA“. Self-Hosted-Optionen existieren, Datenresidenz-Fragen haben konkrete Antworten. Proaktive Compliance verhindert das Shadow-IT-Problem.

Techniken & Tools
  • Datenresidenz-Mapping
  • DPA-Bewertung
  • Self-Hosted-Agent-Optionen
  • Compliance-Dokumentations-Templates
  • Shadow-IT-Risiko-Mitigation
  • Interne Freigabe-Workflows
KI-Adoption in regulierten Umgebungen wird zur gesteuerten Entscheidung, nicht zur Blockade. Frühe Adopter im deutschen Enterprise-Markt gewinnen einen Karrierevorteil.

Die Workshop-Formate

Workshops sind hands-on. Offene Workshops verwenden ein definiertes Beispiel-Projekt, In-house-Workshops richten sich nach deinem Tech-Stack und deiner Codebase.

Klarer Tool-Fokus: Claude Code und Codex. Kein oberflächlicher Rundgang durch den gesamten Markt — sondern tiefe Expertise in den Werkzeugen, die in der Produktion tatsächlich liefern.

Offene Teilnahme

  • 2 Tage Präsenz-Workshop
  • 8–15 Teilnehmer
  • Spannendes Übungsprojekt, das den kompletten Workflow abdeckt
  • Passend für Festangestellte, Freelancer oder kleinere Teams
Köln Bonn Frankfurt Düsseldorf
€1.200 p.P. zzgl. MwSt.
Nächster Workshop: 16. + 17. März 2026 — Köln
  • Kostenfreie Stornierung bis 14 Tage vor Beginn
  • Zahlung auf Rechnung nach dem Workshop

In-house für dein Team

  • Individualisierte Vorbesprechung und Vorbereitung
  • 2 Tage bei euch vor Ort
  • 5–12 Teilnehmer
  • Auf euren Tech-Stack und eure Codebase zugeschnitten
  • Eigene Codebase als Übungsmaterial
  • Individualisierte Inhalte und Schwerpunkte
  • Passend für komplette interne Entwicklungsteams
Vor Ort europaweit
Preis auf Anfrage

Über den Trainer

Chris Tietz
Chris Tietz
Engineering Lead & Agentic Engineering Practitioner

15+ Jahre als Entwickler, Architekt und Engineering Lead. Bereits 2014 sammelte ich erste Erfahrung mit AI und habe dieses Wissen im Laufe der Jahre vertieft.

Was mich antreibt: Menschen zeigen, was mit der richtigen Methodik möglich ist — und ihnen vertrauen, dass sie den Rest selbst schaffen. Dutzende Entwickler würden bestätigen, dass ich einen positiven Einfluss auf ihre Karriere hatte.

Zusammengearbeitet mit

Swiss Automotive Group
123fahrschule
METRO
ARAG
Trusted Shops
PKW.de
Chris erklärt komplexe technische Themen verständlich, geduldig und mit einer sympathischen Leichtigkeit. Durch sein Coaching fühle ich mich heute deutlich sicherer und fachlich besser aufgestellt.
Bruno Dill
Bruno Dill
Tech Recruiter

Was du mitnimmst

Workflow-Referenz

CLAUDE.md-Vorlagen, Setup-Templates, wiederverwendbare Prompts

Slide Deck

Foliensatz zum Nachschlagen und Teilen mit Kollegen

4-Wochen-Check-in

Follow-up: Was hat funktioniert? Wo hakt es?

Direkter Draht

Per E-Mail erreichbar — keine Warteschlange


Häufige Fragen

Welche Vorkenntnisse brauche ich?

Programmiererfahrung — ja. KI-Coding-Erfahrung — nein. Der Workshop startet beim Setup und baut systematisch auf. Wer bereits Copilot oder ChatGPT nutzt, wird noch deutlich dazulernen.

Welche Tools werden eingesetzt?

Claude Code und Codex. Kein oberflächlicher Rundgang durch den gesamten Markt — stattdessen tiefe Expertise in den Werkzeugen, die in der Produktion tatsächlich liefern.

Können wir an unserem eigenen Code arbeiten?

Im In-house-Format: ja. Dein Team arbeitet an eurer Codebase mit eurem Tech-Stack. In der offenen Teilnahme arbeiten alle an einem definierten Projekt, das den kompletten Workflow abdeckt.

Wie hoch ist der Praxisanteil?

Circa 80%. Kurze Theorie-Inputs, dann sofort Hands-on. Am Ende von Tag 2 hast du einen funktionierenden Multi-Agent-Workflow gebaut — kein Folienvortrag.

Wie groß sind die Gruppen?

Offene Teilnahme: 8–15 Personen. In-house: 5–12 Personen. Klein genug für individuelle Betreuung, groß genug für Austausch.

Was kostet der Workshop?

Offene Teilnahme: ab €1.200 pro Person zzgl. MwSt. In-house: Preis auf Anfrage, abhängig von Teamgröße und Anpassungsaufwand.