AI Center services discovery — AI readiness assessment using MetodologIA AI SCALE methodology, use case portfolio prioritization, data readiness evaluation, model inventory, AI governance assessment, infrastructure evaluation, MetodologIA AI product integration, and AI adoption roadmap. Use when the user asks to "assess AI readiness", "evaluate AI maturity", "AI discovery", "AI use case prioritization", "MLOps assessment", "AI governance evaluation", "AI adoption roadmap", "AI strategy assessment", "evaluate AI infrastructure", "AI product fit", or mentions "AI SCALE", "responsible AI", "AI pilots", "ML pipeline", "AI Center of Excellence", "LLM adoption", "generative AI strategy".
From maonpx claudepluginhub javimontano/mao-discovery-frameworkThis skill is limited to using the following tools:
examples/README.mdexamples/sample-output.htmlprompts/prompt.mdreferences/ai-scale-methodology.mdEnables AI agents to execute x402 payments with per-task budgets, spending controls, and non-custodial wallets via MCP tools. Use when agents pay for APIs, services, or other agents.
Compares coding agents like Claude Code and Aider on custom YAML-defined codebase tasks using git worktrees, measuring pass rate, cost, time, and consistency.
Designs and optimizes AI agent action spaces, tool definitions, observation formats, error recovery, and context for higher task completion rates.
Genera un assessment de 8 secciones para servicios del AI Center: evaluacion de readiness con metodologia AI SCALE de MetodologIA, portafolio de use cases, evaluacion de data readiness, inventario de modelos, governance de AI, infraestructura, integracion con productos AI de MetodologIA, y roadmap de adopcion. Diseñado para maximizar la probabilidad de que los pilotos de AI lleguen a produccion y generen valor sostenible.
La IA sin estrategia es un juguete caro. La IA con estrategia pero sin gobernanza es un riesgo empresarial. Solo la IA con estrategia, gobernanza y adopcion medida transforma organizaciones.
$1 — Path to AI/ML documentation or project workspace (default: current working directory)$2 — Analysis depth: full (default), executive (S1, S2, S5, S8 only)Parse from $ARGUMENTS.
Parameters:
{MODO}: piloto-auto (default) | desatendido | supervisado | paso-a-paso
{FORMATO}: markdown (default) | html | dual{VARIANTE}: ejecutiva (~40% — S1, S2, S5, S8 only) | tecnica (full, default){TIPO_SERVICIO}: Data-AI (fixed for this skill)Mandatory:
Recommended:
Assumptions:
Cannot do:
| Missing Input | Impact | Workaround |
|---|---|---|
| No AI strategy | Cannot assess alignment | Evaluar como greenfield; recomendar estrategia como prerequisito |
| No data catalog | Cannot assess data readiness | Identificar data sources principales via entrevistas; flag como [SUPUESTO] |
| No existing models | Cannot inventory models | Evaluar como organizacion pre-AI; enfocar en use case discovery |
| No MLOps pipeline | Cannot assess infrastructure maturity | Flag como gap; baseline en nivel 0 de madurez MLOps |
| No privacy policies | Cannot assess governance | Flag como riesgo critico; recomendar framework de governance como fase 0 |
| Decision | Enables | Constrains | When to Use |
|---|---|---|---|
| Full 8-section analysis | Maximum depth, complete AI strategy | 7-10 dias, alto consumo de tokens | AI transformation programs, AI CoE setup |
| Executive variant (S1+S2+S5+S8) | Quick readiness snapshot, decision-ready | No incluye data readiness, modelos ni infraestructura | AI business case, executive alignment |
| Data-first (S1+S3 deep) | Solid data foundation assessment | No llega a use case prioritization | Organizaciones con datos desordenados |
| Governance-first (S5+S1) | Compliance-ready AI framework | Menor profundidad en use cases y tech | Industrias reguladas (finanzas, salud) |
Evaluacion usando la metodologia AI SCALE de MetodologIA.
Etapas AI SCALE:
| Etapa | Nombre | Descripcion | Indicadores |
|---|---|---|---|
| S | Selection | Identificacion y priorizacion de use cases | Use cases documentados, sponsors identificados, criterios de priorizacion |
| C | Co-creation | Diseno colaborativo de soluciones AI | Equipos cross-funcionales, prototipos, POCs en progreso |
| A | Adoption | Implementacion y adopcion por usuarios | Modelos en produccion, metricas de adopcion, change management |
| L | Launch | Operacionalizacion y escalamiento | MLOps maduro, monitoring, CI/CD para modelos |
| E | Expansion | Expansion y optimizacion continua | Portfolio de AI creciendo, ROI medido, AI-first culture |
Assessment por dimension de madurez:
| Dimension | Score (1-5) | Evidencia | Gap vs Target |
|---|---|---|---|
| Estrategia AI | ... | ... | ... |
| Datos | ... | ... | ... |
| Talento | ... | ... | ... |
| Infraestructura | ... | ... | ... |
| Governance | ... | ... | ... |
Etapa actual en AI SCALE: Identificar con evidencia.
Identificacion y priorizacion de use cases de AI.
Categorizacion:
Matriz de priorizacion:
| Use Case | Impacto (1-5) | Feasibilidad (1-5) | Alineacion Estrategica (1-5) | Score Total | Ranking |
|---|---|---|---|---|---|
| ... | ... | ... | ... | ... | ... |
Top-10 ranked con justificacion por cada criterio. Factores de riesgo por use case (data availability, ethical concerns, technical complexity).
Evaluacion de preparacion de datos para los use cases priorizados.
Dimensiones de data readiness:
| Dimension | Score (1-5) | Evidencia |
|---|---|---|
| Disponibilidad | ... | Datos existen y son accesibles |
| Calidad | ... | Completeness, accuracy, consistency |
| Accesibilidad | ... | APIs, data pipelines, permissions |
| Governance | ... | Ownership, lineage, catalogo |
Por use case priorizado:
Data gap analysis: Matriz de use case vs data readiness. Flag use cases en riesgo por datos insuficientes.
Inventario de modelos AI/ML existentes.
Por modelo existente:
| Modelo | Use Case | Tipo | Stage | Performance | Monitoring | Drift Detection | Retraining |
|---|---|---|---|---|---|---|---|
| ... | ... | Classification/Regression/NLP/CV/GenAI | Experimental/Staging/Production | Accuracy/F1/AUC | Si/No | Si/No | Cadencia |
Clasificacion por lifecycle stage:
Si no hay modelos existentes: Documentar como organizacion pre-AI. Enfocar recomendaciones en foundations (data, infrastructure, talent).
Evaluacion del framework de gobernanza de AI.
Dimensiones de governance:
| Dimension | Madurez (1-5) | Evidencia | Gap |
|---|---|---|---|
| Ethics framework | ... | Principios eticos definidos, comite de etica | ... |
| Bias detection | ... | Procesos de fairness, metricas de bias | ... |
| Explainability (XAI) | ... | SHAP/LIME, model cards, interpretabilidad | ... |
| Compliance | ... | GDPR, AI Act, regulacion sectorial | ... |
| Model risk management | ... | Validation, testing, approval process | ... |
| Responsible AI practices | ... | Human-in-the-loop, override mechanisms | ... |
Governance maturity level:
Evaluacion de infraestructura para AI/ML.
Dimensiones:
| Componente | Estado Actual | Madurez (1-5) | Gap |
|---|---|---|---|
| Compute (GPU/TPU) | ... | ... | ... |
| MLOps maturity | ... | ... | ... |
| Experiment tracking | ... | ... | ... |
| Model registry | ... | ... | ... |
| Feature store | ... | ... | ... |
| Serving infrastructure | ... | ... | ... |
| Monitoring & alerting | ... | ... | ... |
MLOps maturity levels:
Assessment de donde los productos AI de MetodologIA pueden acelerar.
Productos AI de MetodologIA:
| Producto | Descripcion | Fit (Alto/Medio/Bajo/N/A) | Gap que Cubre | Evidencia |
|---|---|---|---|---|
| SKAI | Workflow automation con AI | ... | ... | ... |
| IRIS | Requirements to prototypes | ... | ... | ... |
| ATLAS | Architecture analysis | ... | ... | ... |
| CRONOS | Estimation con AI | ... | ... | ... |
| SDK | IDE integration | ... | ... | ... |
| neXus | Knowledge management | ... | ... | ... |
| ModernAIzer | Legacy modernization | ... | ... | ... |
Fit-gap analysis por producto:
Hoja de ruta de adopcion de AI en 3 fases.
Fase 1 — Pilots (0-3 meses):
Fase 2 — Scale (3-9 meses):
Fase 3 — Production (9-18 meses):
Mitigacion del "80% de pilotos que nunca llegan a produccion":
Indicadores de magnitud (NOT prices):
Disclaimer obligatorio: Las magnitudes presentadas son estimaciones basadas en drivers identificados. Los valores finales dependen de negociacion comercial, condiciones de mercado y contexto especifico del cliente. El "80% failure rate" es una estadistica de industria que varia por sector y madurez organizacional.
| Caso | Estrategia de Manejo |
|---|---|
| Organizacion sin experiencia en AI | Enfocar en educacion, use cases de bajo riesgo, y construccion de data foundations. No recomendar deep learning en dia 1. |
| Multiples pilotos fallidos | Diagnosticar causas raiz (datos, expectativas, governance, talento). Recomendar enfoque diferente, no repetir patron de fracaso. |
| Datos sensibles (salud, finanzas) | Elevar requisitos de governance, privacy by design, y compliance. Evaluar federated learning o differential privacy. |
| Vendor lock-in con plataforma AI | Evaluar portabilidad de modelos, costo de migracion, y estrategia multi-cloud. Documentar exit cost. |
| Shadow AI (uso no gobernado de GenAI) | Inventariar uso informal de AI generativa. Evaluar riesgos (data leakage, compliance). Proponer framework de AI governance que incluya GenAI. |
| >50 use cases identificados | Screening rapido con impacto x feasibilidad. Scoring detallado solo para top-10. Evitar paralisis por analisis. |
| Decision | Alternativa Descartada | Justificacion |
|---|---|---|
| AI SCALE como framework de madurez | CMMI for AI, Gartner AI Maturity | AI SCALE es nativo de MetodologIA, alineado con fases de adopcion (Selection-to-Expansion), y cubre governance como dimension explicita. |
| 8 secciones como estructura de assessment | Assessment monolitico unico, framework de 3 secciones rapidas | 8 secciones permiten modularidad (variante ejecutiva usa 4 de 8) y cubren el ciclo completo desde strategy hasta roadmap. |
| Priorizacion top-10 sobre portafolio completo | Evaluar todos los use cases con igual profundidad | Profundidad sobre amplitud. Scoring detallado de 50+ use cases diluye calidad. Top-10 permite analisis de data readiness y feasibility por caso. |
graph TD
subgraph Core["Conceptos Core"]
AISCALE["AI SCALE Methodology"]
MATURITY["AI Maturity Assessment"]
USECASE["Use Case Portfolio"]
GOVERNANCE["AI Governance"]
DATARDY["Data Readiness"]
end
subgraph Inputs["Entradas"]
STRATEGY["AI Strategy Document"]
DATASRC["Data Sources Inventory"]
STAKEMAP["Stakeholder Map"]
MODELS["Existing Model Inventory"]
end
subgraph Outputs["Salidas"]
ASSESS["AI Center Discovery Report"]
ROADMAP["AI Adoption Roadmap"]
RADAR["Maturity Radar Chart"]
FITGAP["Product Fit-Gap Matrix"]
end
subgraph Related["Skills Relacionados"]
ASIS["asis-analysis (Data-AI)"]
DATENG["data-engineering"]
DATASCI["data-science-architecture"]
CLOUDNAT["cloud-native-architecture"]
end
STRATEGY --> AISCALE
DATASRC --> DATARDY
STAKEMAP --> USECASE
MODELS --> MATURITY
AISCALE --> MATURITY
MATURITY --> ASSESS
USECASE --> ASSESS
DATARDY --> ASSESS
GOVERNANCE --> ASSESS
ASSESS --> ROADMAP
ASSESS --> RADAR
ASSESS --> FITGAP
ASIS -.-> MATURITY
DATENG -.-> DATARDY
DATASCI -.-> USECASE
CLOUDNAT -.-> GOVERNANCE
Formato Markdown (default):
# AI Center Discovery: {project}
## S1: AI Readiness Assessment (AI SCALE)
### Etapa Actual: {etapa}
| Dimension | Score (1-5) | Evidencia | Gap vs Target |
...
## S2: AI Use Case Portfolio
### Top-10 Use Cases
| Use Case | Impacto | Feasibilidad | Alineacion | Score | Ranking |
...
## S3-S8: [secciones completas]
## Roadmap de Adopcion (3 fases)
> DISCLAIMER: Magnitudes, no precios.
Formato PPTX (bajo demanda):
Slide 1: Portada — AI Center Discovery: {project}
Slide 2: Executive Summary — AI SCALE stage + top-3 findings
Slide 3: Maturity Radar — 5 dimensiones scored 1-5
Slide 4: Use Case Portfolio — scatter plot impacto vs feasibilidad
Slide 5: Data Readiness Heatmap — use case vs data readiness
Slide 6-7: Governance Assessment — maturity level + gaps
Slide 8: Product Fit-Gap — MetodologIA AI products matrix
Slide 9: Roadmap — 3 fases (Pilots / Scale / Production)
Slide 10: Next Steps + Disclaimer
Formato HTML (bajo demanda):
AI_Center_Discovery_{project}_{WIP}.htmlFormato DOCX (bajo demanda):
{fase}_{entregable}_{cliente}_{WIP}.docxFormato XLSX (bajo demanda):
{fase}_{entregable}_{cliente}_{WIP}.xlsx| Dimension | Peso | Criterio |
|---|---|---|
| Trigger Accuracy | 10% | El skill se activa correctamente ante keywords de AI readiness, AI SCALE, MLOps, governance, adoption roadmap. |
| Completeness | 25% | Las 8 secciones cubren el ciclo completo: strategy, use cases, data, models, governance, infrastructure, products, roadmap. |
| Clarity | 20% | Scoring de madurez es interpretable por audiencia ejecutiva y tecnica. AI SCALE levels documentados con evidencia. |
| Robustness | 20% | Edge cases (shadow AI, pilotos fallidos, >50 use cases, datos sensibles) manejados con estrategias explicitas. |
| Efficiency | 10% | Variante ejecutiva reduce a 4 secciones sin perder decision-readiness. Screening rapido para portafolios grandes. |
| Value Density | 15% | Cada seccion produce artefactos accionables: scoring matrices, gap analysis, fit-gap, roadmap faseado con mitigacion del 80% failure rate. |
Umbral minimo: 7/10. Debajo de este umbral, revisar completeness de secciones y evidencia de scoring.
Primary: AI_Center_Discovery_{project}.md — Assessment completo de 8 secciones con evaluacion AI SCALE, portafolio de use cases, data readiness, inventario de modelos, governance, infraestructura, integracion de productos MetodologIA AI, y roadmap de adopcion.
Diagramas incluidos:
Autor: Javier Montaño · Comunidad MetodologIA | Ultima actualizacion: 14 de marzo de 2026