Podcasts de Claude Code que valen tu tiempo
Una guía curada de los mejores episodios de podcast sobre Claude Code — flujos de trabajo reales, modos de fallo y patrones técnicos de ingenieros que lo utilizan a diario.
La documentación oficial te dice qué hace Claude Code. Estos podcasts te cuentan cómo lo usan los ingenieros en la práctica — y qué se rompe cuando no lo hacen.
Revisamos los mejores episodios técnicos de podcasts sobre Claude Code y extrajimos lo realmente útil para construir aplicaciones fiables y listas para producción. Sin relleno, solo los patrones que vale la pena copiar.
AI & I (Every.to) — empieza aquí
Dónde escucharlo: Spotify · Apple Podcasts · YouTube
El podcast de Dan Shipper es la mejor fuente actual sobre flujos de trabajo con Claude Code. Dos episodios destacan.
Cómo usar Claude Code como la gente que lo construyó
Shipper entrevista a Cat Wu y Boris Cherny, los ingenieros fundadores de Claude Code en Anthropic. La conversación revela lo que Anthropic llama "Antfooding" — su práctica de observar a cientos de ingenieros usar Claude Code cada día y catalogar exactamente dónde falla. Conocimiento de producto derivado de observación sistemática en lugar de encuestas a usuarios. Eso es poco habitual.
Plan Mode no es opcional. Cherny es explícito: intentar resolver tareas complejas de un solo golpe falla. Plan Mode — donde Claude recorre lo que pretende hacer antes de escribir una sola línea — duplica o triplica la tasa de éxito. Primero fija el enfoque, después escribe código.
settings.json compartido como infraestructura de equipo. Cherny recomienda hacer commit de un settings.json directamente en el repositorio. Pre-aprueba comandos rutinarios (sin diálogos de confirmación repetitivos) y bloquea operaciones de alto riesgo — archivos que Claude nunca debería tocar, comandos que no deberían ejecutarse en ciertos entornos. Cada miembro del equipo hereda los mismos valores seguros por defecto automáticamente.
{
"permissions": {
"allow": ["Bash(npm run test)", "Bash(npm run lint)"],
"deny": ["Bash(rm -rf *)", "Write(.env)"]
}
}
Stop hooks para completar tareas de forma autónoma. Los usuarios avanzados configuran hooks automatizados que se disparan tras completar una tarea. Si un test falla, se le dice a Claude que continúe en lugar de devolver el control al humano. Cherny: "Puedes hacer que el modelo siga adelante hasta que la cosa esté terminada." Esta es la diferencia entre Claude como copiloto y Claude como trabajador autónomo.
Subagentes adversarios para revisión de código. El flujo de revisión de Cherny lanza múltiples subagentes en paralelo: uno revisa guías de estilo, otro recorre el historial de commits, otro busca bugs. Una segunda oleada de cinco subagentes evalúa críticamente los hallazgos de la primera. Los puntos ciegos de cada agente los detecta otro — problemas reales que salen a la luz sin falsos positivos.
El diario de código como memoria persistente. Wu describe una práctica del equipo de ingeniería de Anthropic: después de cada tarea, Claude escribe una entrada de diario — qué intentó, qué funcionó, qué no. Agentes separados leen estos registros y destilan patrones reutilizables. Lo difícil es la discriminación. El ejemplo de Wu es preciso: "Si digo 'Haz el botón rosa', no quiero que recuerdes hacer todos los botones rosas en el futuro." Los aprendizajes universales y las decisiones específicas de contexto necesitan estrategias de almacenamiento diferentes.
→ every.to/podcast/how-to-use-claude-code-like-the-people-who-built-it
Lo mejor del Pod: Claude Code — cómo entregan dos ingenieros
Kieran Klaassen y Nityesh Agarwal del equipo de Every entregaron seis funcionalidades nuevas, cinco correcciones de bugs y tres actualizaciones de infraestructura en una sola semana. El mecanismo: flujos de trabajo agénticos donde cada tarea completada reduce la fricción para la siguiente.
Este episodio construye el modelo mental para tratar Claude Code como un compañero de ingeniería en lugar de un autocompletado inteligente. Límites de delegación de tareas (qué delegar vs. qué mantener bajo tu control), disciplina de contexto (mantener la ventana activa limpia y relevante), y saber cuándo no usar un agente en absoluto.
Klaassen cierra con una comparativa ordenada de todos los asistentes de codificación con IA que ha usado. Merece la pena escucharlo si estás evaluando el panorama.
→ Apple Podcasts — Best of the Pod: Claude Code
ai that works (BoundaryML) — la cobertura técnica más profunda
Dónde escucharlo: YouTube · boundaryml.com/podcast
Vaibhav Gupta y su equipo construyen BAML, un lenguaje de programación para pipelines de IA. Su podcast opera a una altitud diferente a la mayoría — cada episodio viene con código de demostración en GitHub. Cuatro episodios son directamente relevantes.
Episodio #44 — Backpressure agéntico. Aborda el modo de fallo en el que un agente de codificación hace suposiciones incorrectas sobre un sistema externo y luego construye profundamente sobre esas suposiciones antes de que nadie se dé cuenta. La solución son tests de aprendizaje y programas de prueba de concepto que verifican la comprensión de las dependencias externas antes de que comience la implementación. Bucles de retroalimentación deterministas — no esperanza — como columna vertebral de los agentes autónomos.
Episodio #40 — Principios 12-factor para SDKs de agentes de codificación. Bucles de agentes tratados como bloques de construcción para flujos de trabajo deterministas. Cubre gestión de estado JSON, salidas estructuradas con Zod, continuación de sesiones entre ejecuciones y gestión de la ventana de contexto cuando las tareas abarcan múltiples sesiones. Si estás construyendo infraestructura alrededor de Claude Code en lugar de usarlo interactivamente, este es el indicado.
Episodio #48 — Inmersión profunda en las skills de agentes de Claude. Skills, comandos, agentes y subagentes explicados desde los principios fundamentales — qué es cada concepto, cuándo usarlo, cómo encaja en la ingeniería de contexto. Buena base antes del material más avanzado.
Episodio #49 — Guardrails contra prompt injection. En sistemas agénticos, Claude lee salidas de herramientas, documentos y prompts de sistemas externos. Cada uno es un vector de ataque. Cubre el endurecimiento de system prompts, guardas éticas y qué hacer cuando Claude procesa contenido de fuentes no confiables. Relevante para cualquier despliegue en producción donde Claude toque datos externos.
Latent Space — la perspectiva crítica
Dónde escucharlo: Apple Podcasts · Spotify
El manifiesto de vibe coding de Steve Yegge
Steve Yegge tiene más de 2.000 horas con agentes de codificación con IA y es una de las pocas personas dispuestas a hablar de los modos de fallo sin suavizarlos. Su argumento central reencuadra toda la cuestión de la confianza.
Confianza equivale a previsibilidad, no a capacidad. Antropomorfizar un agente — tratarlo como un colega capaz en lugar de un sistema probabilístico — es donde las cosas van mal. El ejemplo de Yegge es concreto e incómodo: un agente lo dejó fuera de su entorno de producción al cambiar una contraseña para "resolver" un problema que encontró. El agente era capaz. No era previsible.
El episodio también cubre el merge wall — el problema de coordinación cuando múltiples agentes trabajan sobre el mismo codebase simultáneamente. Las soluciones actuales implican reservas de archivos y coordinación basada en MCP, pero Yegge lo trata como un problema no resuelto. Tiene razón.
Una observación que impacta de forma diferente según tu nivel de experiencia: 12–15 años de experiencia en ingeniería son paradójicamente un factor de riesgo para adoptar flujos de trabajo agénticos. El reconocimiento de patrones de la experiencia previa te hace más propenso a anular decisiones del agente innecesariamente, y menos propenso a reestructurar flujos de trabajo que no encajan en el modelo mental antiguo.
→ Apple Podcasts — Latent Space: Steve Yegge
Lenny's Podcast — directo del creador
El 19 de febrero de 2026, Boris Cherny — el creador de Claude Code — apareció en el podcast de Lenny Rachitsky. Menos técnico que las otras recomendaciones, pero el único episodio que te da la visión directa de Cherny sobre hacia dónde se dirige Claude Code y qué significa para el rol de ingeniería de software.
Un dato que importa: Cherny no ha escrito una sola línea de código manualmente desde noviembre de 2025. Claude Code genera el 100% de su código de producción. Eso no es un claim de marketing — es la realidad de trabajo declarada por la persona que construyó la herramienta.
Referencia rápida
| Podcast | Enfoque | Nivel |
|---|---|---|
| AI & I (Every.to) | Flujos de trabajo, conocimiento interno | Intermedio |
| ai that works (BoundaryML) | Profundidad técnica, determinismo, evaluaciones | Avanzado |
| Latent Space | Análisis crítico, arquitectura de agentes | Avanzado |
| Lenny's Podcast | Visión, futuro de Claude Code | Principiante–Intermedio |
El hilo que conecta todo
Si tienes una hora, empieza con el episodio de AI & I con Cat Wu y Boris Cherny. Es la concentración más densa de conocimiento real sobre Claude Code, de las personas que lo han visto fallar y triunfar a escala dentro de Anthropic.
El patrón que recorre todo lo anterior: la estabilidad viene del determinismo, no de la capacidad. Plan Mode, settings compartidos, stop hooks, subagentes adversarios, tests de aprendizaje y guardas contra prompt injection son todas implementaciones de la misma idea — construye sistemas que restrinjan lo que el agente puede hacer antes de confiar en que opere de forma autónoma.
Dónde ejecutar esto
Si alguno de estos episodios te inspira a montar tu propio entorno de Claude Code, necesitas un sitio donde ejecutarlo. Hetzner te ofrece un CX22 a 4,85 €/mes con 10 € de crédito inicial — margen suficiente para un servidor de desarrollo, unos cuantos contenedores Docker y los experimentos agénticos que quieras lanzar.
¿No quieres gestionar la infraestructura tú mismo? xCloud se encarga del hosting gestionado para que pases directamente a construir.
¿Quieres conectar Claude Code con flujos de automatización más amplios sin escribir tú el código de integración? ClawTrust es una plataforma de automatización con IA que se encarga de la capa de orquestación.
(Enlaces de afiliado — nos llevamos una pequeña comisión si te registras, sin coste para ti.)