npx claudepluginhub honeyfield-org/thinkprompt-plugin --plugin thinkprompt[search|new|prompt-name]/promptsSearches prompts.chat for AI prompts by <query> with optional --type, --category, --tag filters. Returns titles, descriptions, authors, tags, and links. Also supports get, save, improve.
/promptsAccesses and runs predefined Subcog prompt templates for memory operations like capturing decisions, reviewing memories, interactive tutorials, search help, and decision documentation. Supports --list.
Du hilfst dem User beim Verwalten und Ausführen von Prompts in ThinkPrompt.
Prüfe $ARGUMENTS:
→ Zeige Prompt-Übersicht (Phase 2)
→ Neuen Prompt erstellen (Phase 5)
→ Suche und ggf. ausführen (Phase 3)
Verwende mcp__thinkprompt__list_prompts mit limit: 20.
📝 **Deine Prompts**
| # | Titel | Beschreibung | Variablen |
|---|-------|--------------|-----------|
| 1 | Code Review | Strukturiertes Review | 2 |
| 2 | Feature Planning | Feature-Breakdown | 3 |
| 3 | Bug Report | Bug-Analyse | 4 |
| 4 | Commit Message | Conventional Commits | 2 |
---
Gesamt: X Prompts
💡 `/prompts code review` zum Ausführen | `/prompts new` zum Erstellen
Verwende AskUserQuestion:
Falls User einen wählt → Phase 4 (Ausführen)
Verwende mcp__thinkprompt__list_prompts mit:
search: Der Suchbegriff aus $ARGUMENTSKeine Treffer:
🔍 Keine Prompts für "[Suchbegriff]" gefunden.
💡 `/prompts` für alle Prompts | `/prompts new` zum Erstellen
Ein Treffer: → Direkt zu Phase 4 (Ausführen)
Mehrere Treffer:
🔍 **Suchergebnisse für "[Suchbegriff]"**
| # | Titel | Beschreibung |
|---|-------|--------------|
| 1 | Code Review | Strukturiertes Review |
| 2 | Code Analysis | Tiefe Code-Analyse |
Dann AskUserQuestion:
Verwende mcp__thinkprompt__get_prompt mit der id des gewählten Prompts.
📝 **[Titel]**
[Beschreibung]
**Variablen:**
- `code` (textarea, required): Der zu überprüfende Code
- `context` (text, optional): Zusätzlicher Kontext
Für jede Variable im Prompt:
Für required Variablen:
Verwende AskUserQuestion:
select Typ, sonst User gibt via "Other" einFür optional Variablen: Frage ob der User einen Wert angeben möchte.
Ersetze alle {{variable}} Platzhalter im Prompt-Content mit den eingegebenen Werten.
---
📋 **Prompt: [Titel]**
[Zusammengebauter Prompt-Content mit eingesetzten Variablen]
---
💡 Kopiere diesen Prompt oder nutze ihn direkt in deinem nächsten Request.
Titel:
Verwende AskUserQuestion:
Beschreibung:
Verwende AskUserQuestion:
Verwende AskUserQuestion:
Analyse-Template:
Analysiere folgenden Code/Text:
{{input}}
**Kontext:** {{context}}
Prüfe auf:
1. [Aspekt 1]
2. [Aspekt 2]
3. [Aspekt 3]
Output-Format:
- Zusammenfassung
- Gefundene Issues (Severity/Location/Beschreibung)
- Empfehlungen
Generierungs-Template:
Generiere {{output_type}} basierend auf:
**Anforderungen:**
{{requirements}}
**Kontext:**
{{context}}
Beachte:
- [Regel 1]
- [Regel 2]
Format: [Gewünschtes Format]
Planungs-Template:
Plane die Umsetzung für:
**Ziel:** {{goal}}
**Anforderungen:**
{{requirements}}
**Constraints:**
{{constraints}}
Erstelle:
1. Task-Breakdown mit Abhängigkeiten
2. Risikoanalyse
3. Zeitschätzung (optional)
Frei: Leerer Content, User schreibt selbst.
Zeige das Template und frage:
Extrahiere automatisch alle {{variable}} aus dem Content.
Für jede Variable frage:
{{name}}:"Frage auch ob required (ja/nein).
Verwende mcp__thinkprompt__create_prompt mit:
title: Eingegebener Titeldescription: Eingegebene Beschreibungcontent: Prompt-Contentvariables: Array der definierten Variablen✅ **Prompt erstellt!**
📝 **[Titel]**
[Beschreibung]
Variablen: [Liste der Variablen]
💡 Nutze `/prompts [titel]` zum Ausführen
| Befehl | Beschreibung |
|---|---|
/prompts | Alle Prompts anzeigen |
/prompts new | Neuen Prompt erstellen |
/prompts code review | Prompt suchen/ausführen |
/prompts bug | Prompts mit "bug" suchen |
📝 Du hast noch keine Prompts.
💡 Nutze `/prompts new` um deinen ersten Prompt zu erstellen,
oder `/setup-workspace` um Standard-Prompts anzulegen.
"⚠️ ThinkPrompt API nicht erreichbar. Prüfe ob /setup-thinkprompt ausgeführt wurde."