基于小红书数据分析结果,挖掘爆款规律,自动生成小红书笔记内容。当用户想根据调研数据写小红书、生成爆款笔记、创作内容、做内容策划时触发。例如:"帮我根据调研数据写一篇小红书"、"根据分析结果生成笔记"、"帮我写一篇关于XX的小红书内容"、"基于数据生成爆款文案"。
From rednote-miningnpx claudepluginhub xueyouluo/rednote_mining --plugin rednote-miningThis skill is limited to using the following tools:
Guides Next.js Cache Components and Partial Prerendering (PPR) with cacheComponents enabled. Implements 'use cache', cacheLife(), cacheTag(), revalidateTag(), static/dynamic optimization, and cache debugging.
Migrates code, prompts, and API calls from Claude Sonnet 4.0/4.5 or Opus 4.1 to Opus 4.5, updating model strings on Anthropic, AWS, GCP, Azure platforms.
Orchestrates subagents to execute phased plans: deploys for implementation, verification, anti-pattern checks, code quality review, and commits only after passing checks.
依赖:本 skill 需要 rednote-research skill 的输出数据。若尚未采集分析,先触发 rednote-research 完成数据准备。
两个目录:
PLUGIN_DIR=$(find ~/.claude/plugins/cache/rednote-mining -name "pyproject.toml" 2>/dev/null | head -1 | xargs dirname)
WORK_DIR=$(pwd)
Step 1: 确认研究数据 → 选择 topic_slug
Step 2: 数据深挖 → 分析爆款规律、用户痛点、高频话题
Step 3: 选择内容角度 → 用户确认
Step 4: 下钻参考笔记 → 读取高赞原文作为参考
Step 5: 生成笔记草稿 → 标题 + 正文 + 标签
Step 6: 用户审阅迭代 → 修改或输出最终版
检查 $WORK_DIR/analysis/ 下已有哪些 topic_slug 目录,列出包含 normalized_data.json 的主题:
ls "$WORK_DIR/analysis/" 2>/dev/null
若有多个主题,用 AskUserQuestion 让用户选择要基于哪个主题创作。
若 $WORK_DIR/analysis/ 不存在或没有 normalized_data.json,告知用户先运行 rednote-research。
cd "$PLUGIN_DIR" && uv run python scripts/analyze_stats.py \
--topic-slug {topic_slug} --work-dir "$WORK_DIR"
读取 $WORK_DIR/analysis/{topic_slug}/stats.md。
从 stats.md 中找出点赞数最高的 10-15 篇笔记的 note_id(like_count 字段排序),用原文模式读入:
cd "$PLUGIN_DIR" && uv run python scripts/to_markdown.py \
--topic-slug {topic_slug} --work-dir "$WORK_DIR" \
--note-ids {高赞笔记的 note_id 列表}
读取 $WORK_DIR/analysis/{topic_slug}/notes_detail.md。
结合 stats.md 和 notes_detail.md,分析以下维度:
爆款结构规律
用户痛点与需求
内容空白与机会点
情感与语气
基于 Step 2 的分析,提出 4-6 个具体的内容创作角度,每个角度包含:
使用 AskUserQuestion 让用户选择:
问题:请选择创作角度(也可告诉我你有其他想法):
选项:[角度1标题] / [角度2标题] / ... / 我有其他想法
若用户选择"我有其他想法",引导用户描述,结合数据判断可行性后继续。
根据选定角度,从 stats.md 中筛选最相关的笔记(按实体字段 + 高点赞),获取原文参考:
# 按相关字段过滤结构化数据,获取 note_id
cd "$PLUGIN_DIR" && uv run python scripts/to_markdown.py \
--topic-slug {topic_slug} --work-dir "$WORK_DIR" \
--where {相关字段}={相关值}
# 再提取这批笔记的原文(取点赞最高的 5-8 篇)
cd "$PLUGIN_DIR" && uv run python scripts/to_markdown.py \
--topic-slug {topic_slug} --work-dir "$WORK_DIR" \
--note-ids {筛出的高赞 note_id}
读取 notes_detail.md,重点关注:
基于以上分析,生成完整的小红书笔记,输出格式如下:
## 📝 笔记草稿
### 标题方案(提供 3 个备选)
1. [标题1]
2. [标题2]
3. [标题3]
---
### 正文
[完整笔记正文,包含 emoji、分段、小标题等]
---
### 标签
#标签1 #标签2 #标签3 ...(8-15 个,覆盖核心词和长尾词)
---
### 配图建议
[描述适合的配图风格和内容]
---
### 创作说明
基于 {N} 篇笔记、{M} 条评论的数据分析,重点参考了以下规律:
- [规律1]
- [规律2]
写作要求:
生成草稿后,使用 AskUserQuestion 询问:
"笔记草稿已生成,请选择下一步:"
选项:
- 满意,保存最终版
- 调整标题
- 修改正文风格(更干货 / 更故事化 / 更简洁)
- 换一个内容角度重新生成
- 针对特定评论痛点深化内容
根据用户反馈迭代,每次迭代重新生成对应部分。
最终版保存:
# 保存到工作目录
cat > "$WORK_DIR/analysis/{topic_slug}/note_draft.md" << 'EOF'
{最终笔记内容}
EOF
echo "已保存至 $WORK_DIR/analysis/{topic_slug}/note_draft.md"
$WORK_DIR/analysis/{topic_slug}/ 下的所有文件cd "$PLUGIN_DIR" && uv run python