Academia Agentes de IA de IA
← Home
B0 Lesson 4 · min

Riesgos, límites y cuándo NO usar un agente

Entender los modos de fallo reales — alucinaciones, privacidad, decisiones de alto impacto, costo — y desarrollar criterio para elegir cuándo SÍ y cuándo NO delegar a un agente.

⏳ El audio está en producción. Por ahora puedes leer la lesson abajo.

📺 Experiencia interactiva

Hands-on con código, comandos y casos. Pausa cuando quieras y vuelve después.

La otra cara de LinkedIn: 4 riesgos reales

Capítulo 1 · 5 cards

La otra cara de LinkedIn: 4 riesgos reales

Vertical scroll · audio narrado · ~5 min · ESC para salir

Capítulo 2 · 5 cards

Riesgo 1: Alucinaciones — inventan con seguridad

Vertical scroll · audio narrado · ~5 min · ESC para salir

Capítulo 3 · 5 cards

Riesgo 2: Privacidad — qué NO darle al agente

Vertical scroll · audio narrado · ~5 min · ESC para salir

Capítulo 4 · 5 cards

Riesgo 3: Decisiones de alto impacto

Vertical scroll · audio narrado · ~5 min · ESC para salir

Capítulo 5 · 5 cards

Riesgo 4: Costo + el criterio de los 4 cuadrantes

Vertical scroll · audio narrado · ~5 min · ESC para salir

📖 Ver también: narrativa completa (reading)

Lesson 4 — Riesgos, límites y cuándo NO usar un agente

Objetivo: Desarrollar criterio realista. Saber dónde se rompen los agentes, qué riesgos importan de verdad, y cuándo es mejor mantener al humano en control.


Por qué esta lesson existe

LinkedIn está lleno de "automatiza todo con IA en 24 horas". Es mentira. Y peor: es peligrosa.

Esta lesson es la otra cara de la moneda. La parte que casi nadie cuenta porque no vende cursos.

Vas a salir con cuatro criterios concretos para decidir cuándo NO automatizar — y por qué a veces el humano sigue siendo la mejor opción, no por nostalgia, sino por sentido común.


Riesgo 1 — Alucinaciones (cuando inventan)

Los modelos de lenguaje a veces inventan información que suena cierta pero no lo es. Se llama "hallucination". No es un bug, es cómo funcionan: predicen la siguiente palabra que mejor encaja, no consultan una base de datos de verdad.

Ejemplo concreto: un abogado en Nueva York en 2023 le pidió a ChatGPT casos legales para sustentar un argumento. ChatGPT le dio 6 casos detallados con nombres, fechas y números. El abogado los citó en su escrito. Ninguno existía. Todo inventado. La sanción fue grande y pública.

Cuándo pasa más:

  • Cuando el modelo no sabe la respuesta pero "siente" que debería
  • En temas muy específicos o muy nuevos donde no tiene buenos datos
  • En información que requiere precisión exacta (nombres, fechas, leyes, médicas)

Cómo se mitiga:

  • Verificar siempre lo que un modelo afirma, sobre todo si vas a publicarlo
  • Pedir fuentes citadas (Perplexity y herramientas con búsqueda integrada ayudan)
  • Usar el modelo para borrador, no para fact-checking final
  • Para datos críticos, conectar a una fuente real (un MCP a tu base de datos)

La línea que te llevas: un agente puede inventar con tono de seguridad absoluta. La seguridad del tono no es señal de verdad.


Riesgo 2 — Privacidad (qué datos NO darle)

Cuando le mandas información a un agente, esa información viaja a los servidores de la empresa que lo opera (OpenAI, Anthropic, Google). En la mayoría de los casos no se usa para entrenar futuros modelos —Anthropic lo dice explícito en su política— pero viaja, se procesa, y podría estar sujeta a subpoenas, hackeos, o cambios de política.

Lo que NO conviene meterle a un agente público:

  • Información médica identificable de pacientes (HIPAA, leyes locales)
  • Datos legales bajo secreto profesional
  • Información financiera de clientes con números de cuenta
  • Contraseñas, llaves API, secrets
  • PII (personally identifiable information) de terceros sin consentimiento
  • Información sujeta a NDAs

Lo que sí conviene:

  • Tus propios datos de los que tú decides
  • Información pública o ya anonimizada
  • Contenido tuyo (escritos, código, ideas) que tú compartas conscientemente

Soluciones para datos sensibles:

  • APIs empresariales con cláusulas de privacidad (OpenAI Enterprise, Anthropic Workspace)
  • Modelos auto-hospedados (LLama, Mistral) que corren en tu propia infraestructura
  • Anonimización antes de enviar — quitar nombres, números, identificadores

Lo que no sabías: muchas empresas grandes prohíben usar chatbots públicos con información interna. No por paranoia, por compliance.


Riesgo 3 — Decisiones de alto impacto

Hay decisiones que un agente no debería tomar. Punto.

Una regla simple: si el costo de equivocarse es alto y el costo de revisar es bajo, revisa tú.

Decisión ¿Agente solo?
Clasificar correos no urgentes ✓ Sí
Responder preguntas frecuentes con plantilla ✓ Sí, con escalada a humano si hay duda
Transferir dinero, pagos, refunds grandes ✗ Nunca solo, siempre con confirmación humana
Borrar archivos o registros ✗ Nunca solo
Decisiones médicas ✗ Nunca solo
Decisiones legales con consecuencia ✗ Nunca solo
Despidos, ascensos, evaluaciones de desempeño ✗ Nunca solo
Comunicación pública en nombre de tu marca ✗ Solo con revisión
Contestar reclamos de clientes molestos ✗ Mejor humano, requiere empatía y juicio

El concepto técnico es "human-in-the-loop" — el humano queda en el ciclo. El agente prepara, sugiere, automatiza la parte repetitiva. El humano aprueba o ejecuta el paso final.

Ejemplo concreto: Sofía (la solopreneur que vimos en Lesson 3) configuró su agente de Instagram para escalar a humano cuando: la pregunta es emocional ("estoy molesta porque…"), pide devolución, o menciona algo que el agente no entiende. El agente no decide, levanta la mano.

Lo que no sabías: los mejores casos de uso de agentes en empresas grandes mantienen al humano en el loop precisamente porque el costo legal/reputacional de un error automatizado supera por mucho el ahorro de tiempo.


Riesgo 4 — Costo (no es gratis y se acumula)

Los agentes se ven baratos hasta que escalan.

Costos típicos en 2026:

  • ChatGPT Plus / Claude Pro: $20-25 USD/mes — ilimitado para uso personal
  • Claude Code (subscription Max): $100-200 USD/mes — para uso profesional intensivo
  • APIs (Anthropic, OpenAI): se pagan por token — un agente que procesa muchos correos puede costar $50-500 USD/mes según volumen
  • Plataformas de automatización (Make, Zapier): $20-100 USD/mes según tareas
  • MCPs custom hosting: depende de dónde lo corras

Trampa común: "voy a automatizar todo mi negocio con un agente." Empiezas con $30/mes, llegas a $400/mes en 3 meses sin notarlo. Cada herramienta cobra por separado.

Trampa peor: dejar un agente corriendo en loop sin presupuesto. Si tu agente puede llamar a la API libremente y le programaste mal, puedes quemar $1,000 USD en una noche.

Cómo se controla:

  • Presupuesto duro en la cuenta — Anthropic permite poner límite máximo mensual
  • Monitoreo semanal — revisa costos cada lunes
  • Empezar con plan baratoo y escalar — no vayas directo al Enterprise
  • Calcular ROI antes — si automatizar te ahorra 5h/sem y te cuesta $80/mes, el ROI es claro. Si te ahorra 1h/sem por $200/mes, no.

La línea que te llevas: los agentes son baratos comparados con un empleado. Caros comparados con tu suscripción de Netflix. Sé honesto con qué estás comparando.


El criterio de los 4 cuadrantes

Para decidir si automatizar una tarea, hazte 4 preguntas:

1. ¿Qué pasa si se equivoca?

  • Bajo impacto (mando un correo mal, lo corrijo) → buen candidato
  • Alto impacto (mando $50,000 a la cuenta equivocada) → humano-en-loop obligatorio

2. ¿La tarea requiere juicio o reglas claras?

  • Reglas claras (clasificar correos, conciliar) → buen candidato
  • Juicio sutil (mediar conflicto entre cliente y proveedor) → humano

3. ¿La información es sensible?

  • Pública o tuya → libre
  • De clientes/pacientes/empleados → requiere infraestructura especial

4. ¿El volumen justifica el setup?

  • Tarea de 5 min al día → empieza ahí
  • Tarea que haces 1 vez al mes → no vale la pena el setup

Una tarea ideal: bajo impacto + reglas claras + datos no sensibles + alto volumen. Si los cuatro coinciden, adelante. Si dos no, piénsalo. Si tres no, no lo automatices.


Lo que NO está en esta lista (a propósito)

No te voy a hablar de "AGI", "superinteligencia", "extinción humana." No porque no importe filosóficamente, sino porque no te ayuda a decidir si automatizas tu cierre de mes esta semana.

Los riesgos que importan para ti son los cuatro de arriba. Los demás son discusiones más grandes que requieren su propio espacio.


Lo que te llevas

  1. Alucinaciones son normales — verifica siempre lo crítico
  2. Privacidad importa — no le des a un agente público lo que no compartirías en redes sociales
  3. Human-in-the-loop para decisiones de alto impacto — siempre
  4. Costo se acumula — pon límites, monitorea
  5. El criterio: bajo impacto + reglas claras + datos no sensibles + alto volumen = automatiza. Falta uno: cuidado.

Lo que viene en Lesson 5

Tu gap analysis personal. Vamos a aplicar todo —el qué es un agente, el landscape, los casos, los criterios— a tu vida laboral. Sales con 3 quick wins concretos para esta semana.

✍️ Quiz

Pregunta 1 de 5 easy

Una alucinación de un modelo de lenguaje es:

Progreso: 0/5 respondidas · Correctas: 0

🏋️ Exercise

Ejercicio Lesson 4 — Tu lista de NO

Tiempo estimado: 20 min Entregable: archivo mi-lista-de-no.md


Lo que vas a hacer

Esta lesson fue sobre los riesgos. La forma de internalizarlos es identificar los lugares donde NO usarías un agente, antes de que la tentación llegue.

Tu tarea: lista 3 tareas tuyas donde un agente NO sería apropiado, y explica por qué para cada una.


Estructura del entregable

# Mi lista de NO — fecha [hoy]

## Tarea 1 que NO automatizaría

**La tarea:** [específica]

**Por qué NO:** [una de estas razones — alto impacto si falla, juicio humano requerido, datos muy sensibles, baja frecuencia, mezcla de varias]

**Lo que sí podría hacer un agente** (la parte adyacente que sí asiste): [si aplica — ejemplo: «no automatizo la decisión de despido, pero un agente sí podría preparar el resumen del desempeño previo»]

---

## Tarea 2 que NO automatizaría

[mismo formato]

---

## Tarea 3 que NO automatizaría

[mismo formato]

---

## Mi criterio personal

Después de listar las 3, completa esta frase con TU regla personal:

**"Yo nunca dejaría a un agente decidir solo cuando..."**

[tu regla, en una frase]

---

## El test que voy a hacer

Antes de habilitar cualquier agente nuevo en mi vida laboral, voy a pasarlo por estas 4 preguntas (de Lesson 4):

1. ¿Qué pasa si se equivoca? (impacto)
2. ¿Reglas claras o juicio?
3. ¿Datos sensibles?
4. ¿Volumen alto?

Si fallan 2 o más → no lo automatizo.

[Marca esta sección como tu checklist personal — la usarás cada vez que veas una nueva tendencia de IA y te tiente probar todo.]

Criterios

  • Profundidad de razonamiento (40%): ¿el «por qué NO» es específico, no genérico?
  • Distinción tarea-vs-tarea-adyacente (30%): ¿identificaste qué SÍ podría asistir sin tomar la decisión?
  • Aplicabilidad de tu regla (30%): ¿tu regla personal es lo suficientemente clara para usarla en futuras decisiones?

Pasa con 70%.


Por qué importa

La gente que mete agentes a su vida sin lista de NO es la que termina con problemas reales — correos mal mandados, datos sensibles expuestos, decisiones que después tienen que defender. La lista de NO es como el cinturón de seguridad: invisible cuando todo va bien, indispensable cuando algo falla.