生成用于测试的逼真虚拟数据集,支持自定义列、约束条件及输出格式(CSV、JSON、SQL、Python 脚本)。适用于创建测试数据、构建模拟数据集,或为开发和演示生成示例数据。
From pm-executionnpx claudepluginhub killvxk/pm-skills-zh --plugin pm-executionThis skill uses the workspace's default tool permissions.
Guides Next.js Cache Components and Partial Prerendering (PPR) with cacheComponents enabled. Implements 'use cache', cacheLife(), cacheTag(), revalidateTag(), static/dynamic optimization, and cache debugging.
Migrates code, prompts, and API calls from Claude Sonnet 4.0/4.5 or Opus 4.1 to Opus 4.5, updating model strings on Anthropic, AWS, GCP, Azure platforms.
Details PluginEval's skill quality evaluation: 3 layers (static, LLM judge), 10 dimensions, rubrics, formulas, anti-patterns, badges. Use to interpret scores, improve triggering, calibrate thresholds.
生成用于测试的逼真虚拟数据集,支持自定义列、约束条件及输出格式(CSV、JSON、SQL、Python 脚本)。生成可直接执行的脚本或数据文件,即开即用。
适用场景: 创建测试数据、生成示例数据集、为开发构建逼真的模拟数据,或填充测试环境。
参数:
$PRODUCT:产品或系统名称$DATASET_TYPE:数据类型(如客户反馈、交易记录、用户画像)$ROWS:生成的行数(默认:100)$COLUMNS:需要包含的具体列或字段$FORMAT:输出格式(CSV、JSON、SQL、Python 脚本)$CONSTRAINTS:附加约束条件或业务规则import csv
import json
from datetime import datetime, timedelta
import random
# 配置
ROWS = $ROWS
FILENAME = "$DATASET_TYPE.csv"
# 列定义及逼真值生成器
columns = {
"id": "auto-increment",
"name": "first_last_name",
"email": "email",
"created_at": "timestamp",
# 添加更多列...
}
def generate_dataset():
"""生成逼真的虚拟数据集"""
data = []
for i in range(1, ROWS + 1):
record = {
"id": f"U{i:06d}",
# 根据列定义生成值
}
data.append(record)
return data
def save_as_csv(data, filename):
"""将数据集保存为 CSV 格式"""
with open(filename, 'w', newline='') as f:
writer = csv.DictWriter(f, fieldnames=data[0].keys())
writer.writeheader()
writer.writerows(data)
if __name__ == "__main__":
dataset = generate_dataset()
save_as_csv(dataset, FILENAME)
print(f"已在 {FILENAME} 中生成 {len(dataset)} 条记录")
数据集类型: 客户反馈
列:
约束条件:
CSV: 平面表格格式,易于导入电子表格和数据库
JSON: 嵌套结构,适用于 API 和 NoSQL 数据库
SQL: INSERT 语句,可直接在关系型数据库上执行
Python 脚本: 可执行的生成器,适用于自定义或大型数据集