作業フローや手順を分析し、自動化可能な要素を特定する。ワークフロー分析時、自動化検討時、業務プロセス改善時、またはユーザーが作業フロー分析、自動化要素、業務手順、プロセス最適化に言及した際に使用する。
Analyzes workflows to identify automation opportunities and recommend a skill-based plugin architecture. It triggers when users request analysis of business processes, procedures, or automation potential.
/plugin marketplace add RevTechStudio/rts-plugins/plugin install rts-plugin-generator@rts-pluginsThis skill inherits all available tools. When active, it can use any tool Claude has access to.
このSkillは、ユーザーが提供する作業フローや業務手順の情報を基に、自動化可能な要素を分析・特定する。ユーザーとの対話を通じて作業の詳細を理解し、プラグイン化すべきスキルや作業の依存関係を明確にする。
このSkillは以下の範囲をカバーする:
ユーザーとの対話を通じて、作業フローや業務手順に関する情報を収集する。
実施内容:
質問例:
【作業フローの確認】
分析したい作業フローを教えてください。
1. 作業名: [作業の名称]
2. 目的: [この作業で達成したいこと]
3. 頻度: [どのくらいの頻度で実施するか]
4. 所要時間: [1回あたりの作業時間]
5. 担当者: [誰が実施するか]
良い例:
作業名: コードレビュー実施
目的: コード品質を確保し、バグやセキュリティ問題を早期発見する
頻度: プルリクエストごと(1日5〜10回)
所要時間: 1回あたり30分〜1時間
担当者: シニアエンジニア、テックリード
開始条件:
- プルリクエストが作成される
- CI/CDパイプラインが成功する
終了条件:
- レビューコメントが全て解決される
- 承認者が2名以上Approveする
- マージ可能な状態になる
悪い例:
作業名: レビュー
目的: 確認する
頻度: たまに
所要時間: 適当
担当者: 誰か
作業フローを具体的なステップに分解し、各ステップの詳細を明確にする。
実施内容:
分解基準:
良い例:
【コードレビュー実施フロー】
ステップ1: プルリクエスト確認
- 入力: プルリクエストURL
- 処理: PR内容、変更ファイル、コミットメッセージを確認
- 出力: レビュー対象の特定、優先度判断
- 判断基準: 変更規模、影響範囲、緊急度
ステップ2: 静的解析結果確認
- 入力: CI/CDパイプライン結果
- 処理: linter、型チェック、セキュリティスキャン結果を確認
- 出力: 自動検出された問題リスト
- 判断基準: エラーがゼロであること
ステップ3: コード品質チェック
- 入力: 変更されたコード
- 処理: コーディング規約、設計原則、ベストプラクティスに照らしてチェック
- 出力: 品質問題リスト、改善提案
- 判断基準: コーディング規約、SOLID原則、セキュリティガイドライン
ステップ4: テストカバレッジ確認
- 入力: テスト実行結果、カバレッジレポート
- 処理: テストの網羅性、テストの品質を確認
- 出力: テスト改善提案
- 判断基準: カバレッジ80%以上、エッジケースのテストが含まれる
ステップ5: レビューコメント作成
- 入力: 品質問題リスト、改善提案
- 処理: コメントの優先度付け、具体的な修正案の作成
- 出力: レビューコメント
- 判断基準: 建設的、具体的、実行可能
ステップ6: 承認判断
- 入力: 全てのチェック結果、レビューコメント
- 処理: 承認可否を判断
- 出力: Approve or Request Changes
- 判断基準: 重大な問題がゼロ、軽微な問題は許容範囲内
悪い例:
ステップ1: 確認する
ステップ2: チェックする
ステップ3: 終わり
各ステップを分析し、自動化可能性を評価する。
実施内容:
評価基準:
良い例:
【自動化分析結果】
ステップ1: プルリクエスト確認
- 自動化可能性: 高
- 自動化難易度: 容易
- 自動化効果: 中
- 理由: GitHub APIで情報取得可能、基本的な分析は自動化できる
- 手作業部分: 優先度の最終判断(レビュー者の経験に基づく)
ステップ2: 静的解析結果確認
- 自動化可能性: 高
- 自動化難易度: 容易
- 自動化効果: 高
- 理由: CI/CD結果の取得と解析は完全自動化可能
- 手作業部分: なし
ステップ3: コード品質チェック
- 自動化可能性: 中
- 自動化難易度: 中程度
- 自動化効果: 高
- 理由: コーディング規約チェックは自動化可能だが、設計原則の評価は難しい
- 手作業部分: アーキテクチャレビュー、設計の妥当性判断
ステップ4: テストカバレッジ確認
- 自動化可能性: 高
- 自動化難易度: 容易
- 自動化効果: 高
- 理由: カバレッジレポートの解析は完全自動化可能
- 手作業部分: テストの品質評価(テストが適切かどうか)
ステップ5: レビューコメント作成
- 自動化可能性: 中
- 自動化難易度: 中程度
- 自動化効果: 中
- 理由: 定型的なコメントは自動生成可能、建設的なコメントは難しい
- 手作業部分: 具体的な修正提案、コンテキストに応じたアドバイス
ステップ6: 承認判断
- 自動化可能性: 中
- 自動化難易度: 中程度
- 自動化効果: 低
- 理由: ルールベースの判断は可能だが、最終承認は人間が行うべき
- 手作業部分: 最終的な承認判断
悪い例:
全部自動化できる
自動化可能な要素をワークフロースキルとコンベンションスキルに分類する。
実施内容:
分類基準:
良い例:
【スキル分類結果】
ワークフロースキル候補:
1. pull-request-analyzer
- 責任範囲: プルリクエストの内容を分析し、レビュー対象を特定する
- 入力: プルリクエストURL
- 出力: レビュー対象の特定、優先度判断、変更サマリー
- 依存: なし
2. static-analysis-checker
- 責任範囲: CI/CD静的解析結果を確認し、問題を抽出する
- 入力: CI/CDパイプライン結果
- 出力: 問題リスト、重要度分類
- 依存: なし
3. code-quality-reviewer
- 責任範囲: コード品質をチェックし、改善提案を作成する
- 入力: 変更されたコード、コーディング規約
- 出力: 品質問題リスト、改善提案
- 依存: coding-conventions
4. test-coverage-analyzer
- 責任範囲: テストカバレッジを確認し、テスト改善提案を作成する
- 入力: テスト実行結果、カバレッジレポート
- 出力: カバレッジ分析結果、テスト改善提案
- 依存: なし
5. review-comment-generator
- 責任範囲: レビューコメントを生成し、優先度付けを行う
- 入力: 品質問題リスト、改善提案
- 出力: レビューコメント
- 依存: review-comment-guidelines
コンベンションスキル候補:
1. coding-conventions
- 責任範囲: コーディング規約(命名規則、フォーマット、ベストプラクティス)を定義
- カテゴリ: 命名規則、コードレイアウト、設計原則
- 良い例/悪い例: あり
2. review-comment-guidelines
- 責任範囲: レビューコメントのガイドライン(建設的、具体的、実行可能)を定義
- カテゴリ: コメントの書き方、優先度付け、フィードバックの伝え方
- 良い例/悪い例: あり
悪い例:
スキル: レビュー全部
分類結果を基に、推奨されるスキル構成をユーザーに提示する。
実施内容:
提示形式:
【推奨スキル構成】
ワークフロースキル (5個):
- pull-request-analyzer: プルリクエストの内容を分析し、レビュー対象を特定する
- static-analysis-checker: CI/CD静的解析結果を確認し、問題を抽出する
- code-quality-reviewer: コード品質をチェックし、改善提案を作成する
- test-coverage-analyzer: テストカバレッジを確認し、テスト改善提案を作成する
- review-comment-generator: レビューコメントを生成し、優先度付けを行う
コンベンションスキル (2個):
- coding-conventions: コーディング規約を定義
- review-comment-guidelines: レビューコメントのガイドラインを定義
【実行順序】
1. pull-request-analyzer (並列実行可能)
2. static-analysis-checker (並列実行可能)
3. code-quality-reviewer (coding-conventionsに依存)
4. test-coverage-analyzer (並列実行可能)
5. review-comment-generator (review-comment-guidelinesに依存)
【実装優先順位】
優先度1(必須):
- coding-conventions
- pull-request-analyzer
- static-analysis-checker
- code-quality-reviewer
優先度2(推奨):
- test-coverage-analyzer
- review-comment-guidelines
- review-comment-generator
【自動化効果見積もり】
現状: 1回あたり30分〜1時間(手作業)
自動化後: 1回あたり10分〜15分(自動+人間の最終判断)
削減効果: 約60%〜75%の時間削減
良い例:
推奨構成が明確で、各スキルの役割、実行順序、優先順位が説明されており、自動化効果も示されている。
悪い例:
スキルをいくつか作る
このスキルは以下を生成する:
検出例:
ステップ1: レビューする
ステップ2: 終わり
対処法:
検出例:
自動化可能性: たぶんできる
対処法:
検出例:
スキルが大きすぎる、または小さすぎる。
対処法: