From agentic-ai-skills
Automates daily overseas AI/LLM intelligence reports from 8 sources (Twitter, HN, Reddit, etc.), structures via LLM into 3 sections (commercialization, data engineering, applications), distributes to Feishu wiki and Ruliu group. Triggers on keywords like '海外AI日报'.
npx claudepluginhub agenticaiplan/agenticaiskills --plugin agentic-ai-skillsThis skill uses the workspace's default tool permissions.
- 需要每日自动生成海外 AI/LLM 领域结构化情报报告的运营或管理团队
Monitors LLM data markets by scraping Xiaohongshu, WeChat, Baidu for recruitment signals on data annotation/experts from vendors like Baidu/Ali/Talents AI; infers model directions; generates Excel/Word reports.
Generates concise Markdown text digest and 9:16 PNG image from scored AI news data for sharing on messaging platforms like WeChat, Telegram, Slack.
Searches for today's AI news across multiple categories, checks official changelogs, and creates/updates a briefing in Notion with deduplication against previously covered stories.
Share bugs, ideas, or general feedback.
在项目根目录创建 .env 文件,以 assets/.env.example 为模板,填入以下配置:
必填项:
| 变量 | 说明 | 获取方式 |
|---|---|---|
RAPIDAPI_KEY | RapidAPI 密钥(Twitter、Reddit、Product Hunt 数据抓取) | 注册 rapidapi.com,订阅 twitter-api45、reddit34、product-hunt-scraper-api |
LLM_API_KEY | 报告生成 LLM 的 API Key | OpenAI 兼容 LLM 提供商 |
LLM_BASE_URL | LLM 接口 Base URL | LLM 提供商的 API 端点 |
LLM_MODEL | 模型名称 | 如 gpt-4o、ernie-5.0-thinking-latest |
FEISHU_APP_ID | 飞书应用 App ID | 飞书开放平台 |
FEISHU_APP_SECRET | 飞书应用 App Secret | 飞书开放平台 |
FEISHU_WIKI_SPACE_ID | 飞书知识库空间 ID | 知识库页面 URL |
RULIU_WEBHOOK_URL | 如流群 Webhook URL | 如流群设置 |
RULIU_GROUP_ID | 如流群 ID(数字) | 如流群设置 |
选填项:
| 变量 | 说明 | 默认值 |
|---|---|---|
BOCHA_API_KEY | 博查搜索 API Key | 未配置则跳过雷达6 |
X_LIST_URL | Twitter/X 精选 List URL | 未配置则跳过雷达1 |
FEISHU_WIKI_PARENT_NODE_TOKEN | 飞书知识库父节点 | 空(空间根目录) |
FEISHU_BASE_URL | 飞书 API 域名 | https://open.feishu.cn |
FEISHU_WIKI_DOMAIN | 飞书知识库页面域名 | bytedance.feishu.cn |
http_proxy / https_proxy | 代理地址(支持 PAC 自动解析) | 无代理 |
pip install -r scripts/requirements.txt
检查项目根目录是否存在 .env 文件且必填项已配置。若未配置,引导用户按上方配置表填写。检查 Python 依赖是否已安装。
# 完整运行(采集 + 生成报告 + 分发)
python3 scripts/daily_report.py
# 仅生成报告,不分发(测试用)
python3 scripts/daily_report.py --no-distribute
管线自动执行以下流程:
references/system_prompt.md 中的 prompt 生成三板块结构化报告YYYY-MM-DD-Overseas-LLM-Insight.md)# crontab 示例:工作日 9:03 AM 自动执行
3 9 * * 1-5 cd /path/to/project && python3 scripts/daily_report.py >> /path/to/project/cron.log 2>&1
生成 YYYY-MM-DD-Overseas-LLM-Insight.md,包含三板块:
板块一:海外商业化与竞争格局
板块二:数据工程与模型能力突破
板块三:应用创新与工程前沿
管线自动处理被墙站点的代理(ArXiv、HuggingFace),对不需要代理的站点直连。支持:
http://pac.internal.company.com/proxy.pac)— 自动解析为实际代理地址http://proxy-host:port)| 自定义项 | 操作位置 | 说明 |
|---|---|---|
| 更换 Twitter List | .env 中的 X_LIST_URL | 设置自己的 X List URL,建议添加 AI 研究者、模型厂商、VC 分析师 |
| 修改报告 prompt | references/system_prompt.md | 调整板块定义、选题门控、语言风格、红线规则 |
| 调整搜索关键词 | scripts/daily_report.py 中的 fetch_twitter_global_data() 和 fetch_bocha_data() | 修改 query 字符串或 queries 列表 |
| 增减分发渠道 | scripts/distribute.py 中的 distribute_report() | 新增发布函数并在其中调用 |
| 适配国际版飞书 | .env 中设置 FEISHU_BASE_URL=https://open.larksuite.com 和 FEISHU_WIKI_DOMAIN=yourorg.larksuite.com | 国际版 Lark 兼容 |
references/system_prompt.md:LLM 报告生成的完整 prompt,控制板块定义、选题门控标准、输出格式、语言风格和红线规则assets/.env.example:环境配置模板,含各配置项的详细注释和获取方式