From agentic-ai-skills
Automates collection of Chinese AI expert statements from 15 government/think tank/media sources via Baidu searches, AI relevance/authority scoring, expert aggregation, Excel/JSON reports. For building expert databases.
npx claudepluginhub agenticaiplan/agenticaiskills --plugin agentic-ai-skillsThis skill uses the workspace's default tool permissions.
本Skill适用于以下业务场景:
Builds and maintains Feishu Bitable workflows to monitor public statements from governments, experts, and media, normalizing data into records with clickable links, source tags, priority labels, and expert aggregations.
Automates collection, analysis, and summarization of information from SITE.md sources and web searches into structured, multilingual reports for specified domains like tech and news.
Scans Twitter/X feeds from Anthropic/Claude Code team members for actionable insights on features/updates, tracks state, generates reports using browser automation.
Share bugs, ideas, or general feedback.
本Skill适用于以下业务场景:
使用本Skill需要准备以下输入:
采集领域关键词
时间范围
飞书配置(如需飞书集成)
系统将从以下15个权威信息源采集数据:
政府部门(5个):
权威智库(5个):
权威媒体(5个):
每个信息源生成2个搜索URL(网页搜索 + 新闻搜索),共30个真实百度搜索链接。
对每条专家言论进行AI分析:
相关度评分(0-100分)
权威性评分(0-100分)
综合优先级计算
综合分数 = 相关度 × 0.6 + 权威性 × 0.4
高优先级 ⭐⭐⭐:综合分≥70 且 相关度≥60
中优先级 ⭐⭐:综合分≥50 或 相关度≥40
低优先级 ⭐:其他
文件路径:output/专家分析报告_YYYYMMDD_HHMMSS.xlsx
工作表1:专家档案
| 列名 | 类型 | 说明 |
|---|---|---|
| 专家姓名 | 文本 | 专家完整姓名 |
| 最新单位 | 文本 | 当前工作机构 |
| 最新职务 | 文本 | 当前职务 |
| 简介 | 文本 | 专家背景介绍(≤500字) |
| 发言统计 | 数字 | 采集到的言论总数 |
| 优先级 | 文本 | 高/中/低 |
| AI数据相关度 | 数字 | 0-100分 |
工作表2:专家言论
| 列名 | 类型 | 说明 |
|---|---|---|
| 链接 | 超链接 | 百度搜索URL |
| 时间 | 日期 | 发布日期 |
| 专家姓名 | 文本 | 发言人姓名 |
| 正文 | 文本 | 言论完整内容 |
| 发言主题 | 文本 | 核心话题 |
| 发言要点 | 文本 | 关键观点摘要 |
| 活动背景 | 文本 | 发言场合/事件背景 |
文件路径:output/expert_analysis_YYYYMMDD_HHMMSS.json
包含完整的结构化数据,便于程序化处理:
{
"timestamp": "2026-04-15T09:03:00",
"experts": [...],
"speeches": [...],
"statistics": {
"total_experts": 8,
"high_priority": 0,
"medium_priority": 7,
"low_priority": 1
}
}
文件路径:output/high_priority_experts_YYYYMMDD_HHMMSS.json
单独提取高优先级专家,便于快速建联。
✅ 数据完整性
本Skill在 scripts/ 目录下提供了以下可执行脚本:
主执行脚本,用于自动化数据采集和分析:
python scripts/daily_update.py
功能:
依赖:需要配合以下模块使用(用户需自行实现或参考references/)
专家分析工具,用于对已采集的数据进行深度分析:
python scripts/analyze_experts.py
功能:
一键执行脚本(Bash),快速启动完整流程:
bash scripts/run_collection.sh
流程:
本Skill采用模块化设计,提供两种使用方式:
优点:开箱即用,功能完整 要求:Python 3.8+,需要实现依赖模块
# 1. 安装依赖
pip install requests beautifulsoup4 lxml openpyxl
# 2. 实现或复用依赖模块(参考references/README.md)
# - enhanced_main.py
# - enhanced_crawler.py
# - ai_analyzer.py
# - config.ini
# 3. 执行采集
python scripts/daily_update.py
优点:无需Python环境,灵活可定制
要求:使用Claude Agent + baidu-search skill
步骤:
baidu-search skill搜索15个权威信息源参考代码:
# 1. 搜索数据
from baidu_search import search
results = search("国务院 人工智能 2026")
# 2. AI分析
analysis = {
"expert_name": "提取的专家姓名",
"relevance_score": 85, # 相关度评分
"priority": "高"
}
# 3. 导出Excel
import openpyxl
wb = openpyxl.Workbook()
ws = wb.active
ws.append(["专家姓名", "优先级", "相关度"])
ws.append([analysis["expert_name"], analysis["priority"], analysis["relevance_score"]])
wb.save("专家分析报告.xlsx")
详细实现说明请参考 references/README.md
✅ 分析准确性
✅ 格式规范性
⚠️ 风险提示
📋 假设条件
✓ 需确认事项
详细的使用说明、配置示例和技术文档请参考 references/ 目录:
百度搜索集成指南.md - 如何配置和使用百度搜索采集快速参考.md - 快速上手指南项目完成总结.md - 系统架构和实现细节数据来源真实性解决方案.md - 数据源配置说明pip install requests beautifulsoup4 lxml openpyxl
python daily_update.py
# 打开生成的Excel报告
open output/专家分析报告_*.xlsx
# 或查看JSON数据
cat output/expert_analysis_*.json
系统支持每天早上9:03自动执行(需Claude会话保持运行)。
版本:v1.0.0 License:MIT