Academia Agentes de IA de IA
← Home
Tu primer agente útil · Sesión 1 · min

Del gap analysis a tu plan de 2 semanas

Validar tu Quick Win #1 con criterio refinado, dimensionar el alcance mínimo viable, elegir herramienta usando un árbol de decisión, y salir con un plan ejecutable de 2 semanas con métricas de éxito definidas ANTES.

🎧 Audio

Del gap analysis a tu plan de 2 semanas
0:00 0:00
Velocidad:

📺 Experiencia interactiva

Hands-on con código, comandos y casos. Pausa cuando quieras y vuelve después.

Capítulo 1 · 5 cards

Bienvenida + las 5 preguntas para validar tu pick

Vertical scroll · audio narrado · ~5 min · ESC para salir

Capítulo 2 · 5 cards

MVP del agente: 60% del valor con 20% del setup

Vertical scroll · audio narrado · ~5 min · ESC para salir

Capítulo 3 · 5 cards

Árbol de decisión: ¿qué herramienta usar?

Vertical scroll · audio narrado · ~5 min · ESC para salir

Capítulo 4 · 5 cards

Las 3 métricas + el compromiso de las 2 semanas

Vertical scroll · audio narrado · ~5 min · ESC para salir

Capítulo 5 · 5 cards

Tu plan de 2 semanas · el documento que sales

Vertical scroll · audio narrado · ~5 min · ESC para salir

📖 Ver también: narrativa completa (reading)

Lesson 1 — Del gap analysis a tu plan de 2 semanas

Objetivo: Validar tu Quick Win #1 con criterio refinado, dimensionar el alcance mínimo viable, elegir herramienta usando un árbol de decisión, y salir con un plan ejecutable de 2 semanas con métricas de éxito definidas ANTES de tocar nada.


Bienvenida

Saliste de Fundamentos. Saliste con tu gap-analysis-personal.md en mano. Identificaste 3 quick wins. Definiste UNA prueba para esta semana.

Y aquí estás. Probablemente con dos preguntas dándote vueltas:

"¿Realmente este es el quick win correcto para empezar? ¿Y si me equivoco?"

"Ok, quiero hacerlo, ¿pero cómo se hace el primer paso de verdad?"

Este curso responde las dos preguntas. Lesson 1 contesta la primera. Lesson 2 en adelante contesta la segunda.

Fundamentos te dio el mapa. Aquí lo implementas.


Validar tu Quick Win #1

Antes de configurar nada, dedica 20 minutos a re-revisar tu pick. La gente que falla en la implementación de su primer agente casi siempre falla aquí — no en la herramienta, sino en haber elegido mal qué automatizar.

Las 5 preguntas para validar

Toma tu Quick Win #1 y respóndele estas 5:

1. ¿Lo haces realmente cada semana, sin falla?

No "lo haría" o "podría hacerlo". Lo haces. Si la frecuencia real es menor que la que pusiste en el gap analysis, el ROI no compensa el setup. Mejor escoge otro.

2. ¿Cuánto tiempo INVIERTES vs cuánto vas a INVERTIR en setup?

La regla simple: si la tarea te toma 30 min/semana = 26 horas/año. Si el setup te va a tomar más de 4 horas, el ROI está justo en la frontera. Si la tarea te toma 5 min/semana = 4 horas/año. Si el setup te va a tomar más de 1 hora, no compensa.

3. ¿Tienes el contexto que el agente necesita?

Para que funcione, le vas a tener que dar plantillas, ejemplos, reglas, casos pasados. ¿Los tienes? Si tu trabajo es 100% intuición sin patrones documentables, esta tarea NO es candidato.

4. ¿Pueden los datos viajar a Claude/ChatGPT?

¿Es info pública o tuya? ¿Puedes anonimizar? ¿O es info de cliente bajo NDA estricto? Si es lo último, esta versión simple del agente no es para ti — necesitas API empresarial. Skip a otro quick win mientras tanto.

5. ¿Qué pasa si el agente se equivoca el primer mes?

Si tu respuesta es "nada grave, lo corrijo" → adelante. Si es "puedo perder un cliente, perder dinero, o cometer error legal", este no es el primer agente que armas. Empieza con uno donde el costo del error sea bajo. La confianza viene con casos exitosos.

El resultado de la validación

Después de las 5 preguntas, una de tres cosas pasa:

  • A. Tu pick sigue siendo el correcto. Adelante. Vas a Lesson 2.
  • B. Ajustas el alcance. Mismo quick win, pero más chico (solo 1 sub-tarea, no toda).
  • C. Cambias de quick win. Tomas tu #2 o #3.

El error común: terquearse con un pick mal validado por orgullo. Si tu Quick Win #1 falla en 2 de las 5 preguntas, no le metas más fuerza — cambia. Vas a llegar al mismo lugar más rápido.


Dimensionar el alcance mínimo viable

Asumamos que validaste tu pick. Ahora la siguiente trampa: querer automatizar TODO de la tarea desde el día 1.

No lo hagas.

El concepto de MVP del agente

Tu primer agente debe resolver el subset más pequeño y más frecuente de la tarea. No la versión completa. La razón:

  1. El primer agente tiene una curva de aprendizaje — vas a equivocarte en setup
  2. Ajustar prompts es iterativo — la versión 1 va a estar al 60-70%
  3. Si automatizas el caso completo desde el día 1 y falla, no sabes dónde falló

Ejemplo concreto: Lupita (marketing manager) quería automatizar "procesar todo el feedback semanal". El alcance completo era: 4 fuentes (Intercom, Twitter, LinkedIn, G2/Capterra, NPS) + clasificación en 8 categorías + routing a 4 canales de Slack.

Ella empezó con: 1 fuente (Intercom) + clasificación en 3 categorías + routing a 1 canal. Tardó 1 fin de semana. Funcionó. La semana siguiente agregó 2 fuentes más. La semana 3 agregó las categorías restantes. Mes 1 estaba en su versión final.

El MVP no es subóptimo. Es necesario. Cada paso te da datos para decidir el siguiente.

Cómo dimensionar tu MVP

Toma tu Quick Win #1 y respóndele:

¿Qué subset cubre el 60% del valor con el 20% del setup?

Para Lupita era 1 fuente + 3 categorías. Para María (abogada): 1 tipo de contrato + 5 cláusulas red flag (no las 47). Para Andrés (ventas): post-llamada solo (no pre-llamada hasta semana 3).

Tu MVP típicamente tiene 3-5 subcomponentes de la tarea completa, no 10-15.


El árbol de decisión: ¿qué herramienta usar?

Aquí está el flujo para escoger entre las opciones reales:

¿Tu tarea principalmente requiere razonar sobre texto/documentos?

SÍ → Claude Project o Custom GPT (categoría 4: plataformas custom)

Ejemplos:

  • Revisar contratos contra plantillas (Ana)
  • Resumir reportes con formato fijo (Marta resumiendo reuniones)
  • Clasificar tickets por contenido (Pablo)
  • Evaluar CVs contra criterios (Marta evaluando candidatos)

NO → sigue al siguiente nodo

¿Tu tarea es conectar 2+ apps que ya usas con flujos predecibles?

SÍ → Make o Zapier (categoría 3: no-code automation)

Ejemplos:

  • Coordinar calendarios (Marta)
  • Procesar movimientos bancarios entre cuentas y Sheets (Roberto)
  • Auto-responder DMs de Instagram (Sofía)

NO → sigue al siguiente nodo

¿Tu tarea requiere acción en una app específica que tiene MCP?

SÍ → Claude Project + MCP de esa app (combinación)

Ejemplos:

  • Tareas en Linear / Jira / Asana
  • Documentos en Notion / Drive
  • Pagos en Stripe
  • Comunicación en Slack

NO → Probablemente requieres custom dev. Para tu primer agente, salta esta tarea y elige una más sencilla. Vuelve a esta cuando ya tengas experiencia.

El error común: querer atacar el caso más sofisticado primero. Si tu primer agente requiere un MCP custom o llamadas a APIs específicas, es señal de que escogiste mal. Cambia de pick.


Definir métricas de éxito ANTES de tocar nada

Esta es la regla que más se viola en la práctica.

Si no defines la métrica antes, vas a decir "no me convenció" sin criterio en 2 semanas.

Las 3 métricas que necesitas

Métrica 1 — Tiempo recuperado real

No estimado. Real. Mides:

  • Tiempo dedicado a la tarea ANTES (línea base de 1 semana)
  • Tiempo dedicado a la tarea DESPUÉS de implementar el agente (semana 2)
  • Diferencia = tu ahorro real

Métrica 2 — Calidad del output

¿El agente lo hace tan bien como tú? Mides con casos conocidos:

  • Toma 5-10 casos donde TÚ ya hiciste la tarea (ground truth)
  • Comparas el output del agente vs el tuyo
  • ¿Coincide en 80%+? Aceptable. Menos: refinar.

Métrica 3 — Tu sentimiento al usar el sistema

Métrica cualitativa. ¿Te sientes en control? ¿Te ahorra ansiedad o te genera nueva (preocupación porque algo se haya escapado)? Si es lo segundo, hay que ajustar la escalada humana antes de declarar victoria.

El compromiso de las 2 semanas

Tu plan tiene exactamente 2 semanas. Ni más, ni menos.

  • Semana 1: setup + primera prueba con casos conocidos
  • Semana 2: uso en producción + medición de las 3 métricas

Al final de las 2 semanas, una de tres cosas pasa:

  • Funcionó (las 3 métricas pasaron): consolidas y atacas tu Quick Win #2 en lesson 5
  • Funcionó parcialmente (1-2 métricas): pasas a Lesson 4 (iterar) antes de declarar éxito
  • No funcionó (0-1 métricas): lección aprendida, ajustas y pivotas

Lo importante: 2 semanas no es deadline para "lograrlo". Es deadline para SABER si va a funcionar o no. Conocer rápido > intentar más tiempo.


Tu plan concreto

Para cerrar esta lesson, vas a salir con un documento (plan-2-semanas.md) que contenga:

# Mi plan de 2 semanas — fecha [hoy] a [+14 días]

## Quick Win #1 (validado)

- **Tarea:** [específica, no genérica]
- **Por qué pasó las 5 preguntas de validación:** [breve análisis]

## MVP: el alcance mínimo viable

- **Subset que voy a cubrir:** [60% del valor con 20% del setup]
- **Lo que NO voy a cubrir en este MVP:** [lo que dejo para versión 2]

## Herramienta elegida

- **Categoría:** [chatbot / coding / no-code / plataforma custom]
- **Tool específica:** [Claude Project / GPT custom / Make / Zapier / etc]
- **Por qué esta y no otra:** [aplicación del árbol de decisión]

## Mis 3 métricas de éxito

- **Tiempo recuperado:** meta = X horas/semana
- **Calidad output:** meta = X% de coincidencia con casos conocidos
- **Sentimiento:** meta = me siento en control sin nueva ansiedad

## Plan de las 2 semanas

### Semana 1 — Setup + Probar

- **Día 1-2:** [tareas concretas con horas]
- **Día 3-5:** [primera prueba con 5 casos conocidos]
- **Día 6-7:** [ajustes basados en pruebas]

### Semana 2 — Producción + Medir

- **Día 8-12:** [uso real en mi trabajo diario]
- **Día 13-14:** [medición y comparación con métricas]

## Mi punto de evaluación

**Al final de las 2 semanas, mi decisión va a ser una de:**
- ✅ Funcionó → consolido y voy al Quick Win #2
- ~ Parcial → voy a Lesson 4 (iterar) antes de declarar
- ❌ No funcionó → ajusto pick o pivoto

Lo que te llevas

  1. Validar tu pick antes de tocar herramienta — 20 min ahora ahorra semanas después
  2. MVP mínimo viable — 60% del valor con 20% del setup, no la versión completa
  3. Árbol de decisión para herramienta — no hay "el mejor", hay el que encaja
  4. 3 métricas definidas ANTES — sin esto, en 2 semanas vas a decir "no me convenció" sin criterio
  5. Compromiso de 2 semanas — para SABER si va a funcionar, no para "lograrlo"

Lo que viene en Lesson 2

Configuración paso a paso de tu primer Claude Project (o Custom GPT). Walkthrough de la UI real. Cómo cargar tu contexto. Diseñar el sistema de instrucciones. Probar con casos conocidos antes de producción.

✍️ Quiz

Pregunta 1 de 5 easy

Tu Quick Win #1 falla en 2 de las 5 preguntas de validación. ¿Qué haces?

Progreso: 0/5 respondidas · Correctas: 0

🏋️ Exercise

Exercise Lesson 1 — Tu plan-2-semanas.md

Tiempo estimado: 60 min Entregable: archivo plan-2-semanas.md con tu Quick Win #1 validado, MVP dimensionado, herramienta elegida, métricas de éxito y plan día por día.


Lo que vas a hacer

Es la conversión de tu gap-analysis-personal.md (que sacaste de Fundamentos) a un plan ejecutable. Si te trabas, recurres al template descargable en /recursos/plan-2-semanas-template.md (donde sea que lo cargamos).

Pon timer de 60 min. No más. Si en 60 min no terminas, sube lo que tengas con una nota de qué sección te trabó. Es mejor un plan imperfecto entregado a tiempo que uno perfecto eterno.


Estructura del entregable

# Mi plan de 2 semanas — fecha [hoy] a [+14 días]

## Sobre mí (1 línea)

- Rol y tarea que voy a automatizar:

## 1 · Quick Win #1 (validado)

**Tarea:** [específica, no genérica]

**Las 5 preguntas:**
1. ¿La hago realmente cada semana? [Sí/No · justifica con frecuencia real]
2. ¿Tiempo invierto vs setup esperado? [horas reales/año vs setup estimado]
3. ¿Tengo el contexto que el agente necesita? [Sí/No · qué tienes / qué falta]
4. ¿Datos pueden viajar a Claude/ChatGPT? [Sí/No · si hay sensibilidad, cómo anonimizas]
5. ¿Qué pasa si el agente se equivoca el primer mes? [bajo/medio/alto impacto · justifica]

**Resultado:** ✅ pasa las 5 / ~ pasa 3-4 (ajusta alcance) / × falla 2+ (cambia pick)

## 2 · MVP — alcance mínimo viable

- **Subset que voy a cubrir:** [60% del valor con 20% del setup]
- **Lo que NO voy a cubrir en este MVP:** [lo que dejo para versión 2]
- **Por qué este es el subset correcto:** [breve análisis]

## 3 · Herramienta elegida

**Aplicación del árbol de decisión:**
- Pregunta 1 (¿razonar sobre texto?): [Sí/No]
- Pregunta 2 (¿conectar 2+ apps?): [Sí/No]
- Pregunta 3 (¿acción en app con MCP?): [Sí/No]

**Categoría elegida:** [chatbot / coding / no-code / plataforma custom]

**Tool específica:** [Claude Project / Custom GPT / Make / Zapier / etc]

**Por qué esta y no otra:** [análisis breve · 3-5 frases]

## 4 · Mis 3 métricas de éxito

| Métrica | Línea base (ANTES) | Meta (DESPUÉS) |
|---------|---------------------|-----------------|
| Tiempo recuperado real | ___ h/sem | ___ h/sem |
| Calidad output (% coincidencia con casos ground truth) | n/a | ≥80% |
| Mi sentimiento (control vs ansiedad nueva) | n/a | en control sin ansiedad |

## 5 · Plan semana 1 — Setup + Probar

| Día | Hora | Tarea | Tiempo estimado |
|-----|------|-------|-----------------|
| Día 1 | | | |
| Día 2 | | | |
| Día 3 | | | |
| Día 4 | | | |
| Día 5 | | Primera prueba con 5-10 casos ground truth | |
| Día 6 | | | |
| Día 7 | | Check-point: ¿ya está listo para producción? | 30 min |

## 6 · Plan semana 2 — Producción + Medir

| Día | Hora | Tarea | Tiempo estimado |
|-----|------|-------|-----------------|
| Día 8 | | Uso real en mi trabajo · cronómetro encendido | |
| Día 9 | | | |
| Día 10 | | | |
| Día 11 | | | |
| Día 12 | | | |
| Día 13 | | Compilar mediciones | 30 min |
| Día 14 | | Evaluar las 3 métricas + decisión | 1 h |

## 7 · Mi punto de evaluación · día 14

**Al día 14, mi decisión va a ser una de:**
- ✅ **Funcionó (las 3 métricas pasaron)** → consolido y voy al Quick Win #2 en Lesson 5
- ~ **Funcionó parcialmente (1-2 métricas)** → voy a Lesson 4 (iterar) antes de declarar éxito
- ❌ **No funcionó (0-1 métricas)** → ajusto alcance / cambio tool / pivoto pick

**Comprometido con:** SABER al día 14, no LOGRAR al día 14.

---

## Notas importantes

- **El plan es brújula, no destino.** Si el día 7 los datos te dicen que pivotes, pivotas. No te aferres por ego al documento de hoy.
- **Documenta ajustes con fecha.** Si pivotas el día 7, anótalo: «día 7 · pivoteo a [X] porque [datos]». Eso te enseña en futuros ciclos.
- **NO consumas tu próxima lesson hasta tener este plan listo.** El curso vale lo que valga este documento.

Criterios de evaluación

Tu entregable se evalúa con esta rúbrica (paso con 70%):

  • Completitud (40%) — ¿llenaste TODAS las secciones con contenido real, no placeholders?
  • Aplicación correcta (30%) — ¿pasaste las 5 preguntas de validación con honestidad? ¿el árbol de decisión apunta a la herramienta correcta? ¿las métricas son medibles?
  • Aprendizaje documentado (30%) — ¿el plan refleja entendimiento del MVP? ¿el plan día por día es ejecutable, no aspiracional?

Tip final

El timer de 60 min existe por una razón. Sin timer, mucha gente toma 4-6 horas perfeccionando el plan. Con timer, sales con un plan 80% bueno que es más útil que el 100% perfecto del lunes que viene.

Si en 60 min no terminaste: sube lo que tengas. Lo refinas en la primera semana de implementación cuando ya tengas datos reales.


Si te trabas en alguna sección, regrésate a la lesson. Cada chapter desglosa una pieza:

  • El primer capítulo — las 5 preguntas + cuándo cambiar pick
  • El segundo capítulo — MVP del agente + ejemplo Lupita
  • El tercer capítulo — árbol de decisión de herramienta
  • El cuarto capítulo — las 3 métricas + el compromiso de 2 semanas
  • El quinto capítulo — la estructura del plan

— Academia Agentes de IA