npx claudepluginhub devmuslim/pdm-skills --plugin product-mindsetThis skill uses the workspace's default tool permissions.
```
Guides Next.js Cache Components and Partial Prerendering (PPR) with cacheComponents enabled. Implements 'use cache', cacheLife(), cacheTag(), revalidateTag(), static/dynamic optimization, and cache debugging.
Migrates code, prompts, and API calls from Claude Sonnet 4.0/4.5 or Opus 4.1 to Opus 4.5, updating model strings on Anthropic, AWS, GCP, Azure platforms.
Facilitates interactive brainstorming sessions using diverse creative techniques and ideation methods. Activates when users say 'help me brainstorm' or 'help me ideate'.
"جميع الـ Roadmaps أكاذيب مؤدبة."
الواقع: لا أحد يعرف ما سينجح قبل التجريب.
الفريق الذكي لا يبني — يتعلم بأسرع طريقة ممكنة.
بدلاً من: "سنبني Feature X"
قل: "نؤمن أن Feature X ستحل مشكلة Y
لأن Z، وسنعرف أننا نجحنا عندما نرى W"
القالب:
"نؤمن أن [الحل]
سيحقق [النتيجة]
لـ [المستخدم]
لأن [الدليل/المنطق]
وسنثبت ذلك عندما نرى [المقياس] يصل [الرقم]
خلال [الإطار الزمني]"
❌ الطريقة الخاطئة:
بناء 3 أشهر → إطلاق → اكتشاف أن لا أحد يريده
✅ الطريقة الصحيحة:
أصغر تجربة ممكنة → قياس → تعلم → pivot أو persist
MVP ليس نسخة ناقصة — هو أسرع طريقة لاختبار افتراض:
Assumption: "المستخدمون يريدون Preview قبل الإرسال"
MVP: Mock Screenshot + Survey (بدون كود)
إذا 80% قالوا نعم → ابنِه
إذا 30% قالوا نعم → لا تبنِه الآن
🟢 منخفض المخاطرة (ساعات):
- Fake Door Test: زر الـ Feature موجود لكن لا يعمل
إذا ضغط عليه 40%+ → تستحق البناء
- Survey: سؤال واحد للمستخدمين الحاليين
- Data Analysis: من البيانات الموجودة
🟡 متوسط المخاطرة (أيام):
- Prototype غير قابل للتشغيل (Figma فقط)
- Wizard of Oz: عملية يدوية تبدو آلية
- A/B Test على 10% من المستخدمين
🔴 عالي المخاطرة (أسابيع):
- Feature Flag لمستخدمين محددين
- Pilot مع عميل واحد فقط
- Full Release
الجملة التي تبني الثقافة:
"هذا لم ينجح — ماذا تعلمنا؟"
لا: "من المسؤول عن هذا؟"
في Retro — سؤال دائم:
"ما أسرع فشل تعلمنا منه هذا الشهر؟"
مقياس صحة الثقافة:
هل الفريق يقترح إلغاء Features لا تعمل؟
هل يوقف بناء شيء إذا اكتشف أنه خاطئ؟
بدلاً من Rollout كامل دفعة واحدة:
الأسبوع 1: 1% من المستخدمين
الأسبوع 2: 10% إذا النتائج إيجابية
الأسبوع 3: 50%
الأسبوع 4: 100%
في كل مرحلة تراقب:
- Error Rate
- Task Completion
- User Feedback
- Performance
إذا ظهر مشكلة → تراجع فوراً بدون خوف