Kursübersicht
KI-Coding-Tools generieren Code schnell—aber sie generieren jeden Code, der zu Ihrer vagen Eingabe passt. Die meisten Entwickler, die Claude Code, GitHub Copilot, Cursor oder Junie verwenden, lernen das auf die harte Tour: Die KI produziert fröhlich plausibel aussehenden Code, der das Problem nicht wirklich löst. Die Lücke zwischen “Code bekommen” und “korrekten Code bekommen” hängt von einer Fähigkeit ab, die die meisten Entwickler nie gelernt haben—Spezifikationen schreiben, die KI zur richtigen Lösung führen.
Dieses Training lehrt systematische Spezifikation für KI-gestützte Entwicklung. Sie lernen den Spec-Driven Stack (Anforderungen → Plan → Aufgaben → Tests), üben die Transformation vager Ideen in testbare Akzeptanzkriterien und meistern die dreistufige Testentwicklung, um die Kontrolle zu behalten, wenn die KI vorpreschen will.
Der Ansatz ist iterativ, nicht Wasserfall. Sie lernen, wann Sie Spezifikationen aktualisieren und wann Sie einfach coden sollten, wie Sie KI selbst für Zerlegung und Kritik nutzen, und wie Sie mit Änderungen leben können, ohne ins Chaos zu verfallen. Das Eisberg-Modell hilft zu kalibrieren, wie viel Detail jede Ebene braucht: Detaillieren Sie das Unmittelbare, skizzieren Sie das Nächste, lassen Sie den Rest unscharf.
Am Ende werden Sie Anforderungen schreiben, die als zuverlässige Eingaben für enge TDD-Workflows mit KI dienen—und inkonsistente Ergebnisse in vorhersagbare, korrekte Implementierungen transformieren.
Lernziele
- Vage Feature-Anfragen in strukturierte, testbare Spezifikationen transformieren
- Den Spec-Driven Stack anwenden: requirements.md → plan.md → tasks.md → Testspezifikationen
- Akzeptanzkriterien schreiben, die KI zu korrekten Lösungen führen
- Dreistufige Testentwicklung (Ideen → Gliederungen → Implementierungen) zur Kontrolle nutzen
- KI-Tools zur Zerlegung und Kritik von Anforderungen vor der Implementierung einsetzen
- Entscheiden, wann Spezifikationen aktualisiert werden sollen versus direkt zum Code übergehen
Behandelte Themen
- Konzeptionelle Grundlagen — Gemeinsames Vokabular (User Stories, Akzeptanzkriterien, DoR, NFRs) und Elemente guter Spezifikationen
- Das Problem: Garbage In, Garbage Out — Aus erster Hand erfahren, dass vage Anforderungen vage Ergebnisse produzieren, unabhängig von Prompting-Fähigkeiten
- Der Spec-Driven Stack — Von Anforderungen über Pläne, Aufgaben und Testspezifikationen; Präzisionsebenen (Konzept vs. Struktur vs. Aufgaben)
- Von der Spezifikation zur Entwicklung — Verbindung von tasks.md zu Testideen und Implementierung; die Brücke zu TDD-Workflows
- Von linear zu iterativ — Das Eisberg-Modell, Feedback-Loops, Spec-Drift und wissen, wann “gut genug” eine Fähigkeit ist
- Integration externer Eingaben — Kundenfeedback, Brownfield-Constraints, NFRs und werkzeuggestützte Zerlegung
Was Sie erhalten
- Praktische Übungen mit realistischen Spezifikationsszenarien unter Verwendung Ihres KI-Tools Ihrer Wahl
- Eine vollständig zerlegte Spezifikation (requirements.md → plan.md → tasks.md) für ein realistisches Feature
- KI-kritisierte Version Ihrer Spezifikationen mit identifizierten Lücken
- Übung im Schreiben von Akzeptanzkriterien, die KI-Verhalten einschränken
- Einblick in verschiedene Tooling-Ansätze (manuell, spec-kit, BMAD)
- Persönliches Entscheidungsframework: wann mehr spezifizieren vs. schneller iterieren