Claude Code-podcasts die je tijd waard zijn

Een samengestelde gids met de beste podcastafleveringen over Claude Code — echte workflows, faalpatronen en technische patronen van engineers die er dagelijks mee bouwen.

Claude Code-podcasts die je tijd waard zijn
Ook beschikbaar in het English, Deutsch, Français, Español.

De officiële documentatie vertelt je wat Claude Code doet. Deze podcasts vertellen je hoe engineers het daadwerkelijk gebruiken — en wat er misgaat als ze dat niet doen.

We hebben de beste technische podcastafleveringen over Claude Code doorgenomen en eruit gehaald wat echt bruikbaar is voor het bouwen van betrouwbare, productiewaardige applicaties. Geen opvulling, alleen patronen die het stelen waard zijn.

AI & I (Every.to) — begin hier

Waar te luisteren: Spotify · Apple Podcasts · YouTube

De podcast van Dan Shipper is de beste huidige bron voor Claude Code-workflows. Twee afleveringen springen eruit.

Hoe je Claude Code gebruikt zoals de mensen die het hebben gebouwd

Shipper interviewt Cat Wu en Boris Cherny, de founding engineers van Claude Code bij Anthropic. Het gesprek onthult wat Anthropic "Antfooding" noemt — hun praktijk om honderden engineers dagelijks Claude Code te zien gebruiken en precies vast te leggen waar het faalt. Productinzichten afgeleid van systematische observatie in plaats van gebruikersenquêtes. Dat is zeldzaam.

Plan Mode is niet optioneel. Cherny is expliciet: complexe taken in één keer proberen op te lossen mislukt. Plan Mode — waarbij Claude doorloopt wat het van plan is te doen voordat het één regel code schrijft — verdubbelt of verdrievoudigt het slagingspercentage. Leg eerst de aanpak vast, schrijf daarna code.

Gedeelde settings.json als teaminfrastructuur. Cherny raadt aan om een settings.json rechtstreeks in de repository te committen. Het keurt routinematige commando's vooraf goed (geen herhaalde bevestigingsdialogen) en blokkeert risicovolle operaties — bestanden die Claude nooit mag aanraken, commando's die in bepaalde omgevingen niet mogen draaien. Elk teamlid erft automatisch dezelfde veilige standaardinstellingen.

{
  "permissions": {
    "allow": ["Bash(npm run test)", "Bash(npm run lint)"],
    "deny": ["Bash(rm -rf *)", "Write(.env)"]
  }
}

Stop hooks voor autonome afronding. Ervaren gebruikers koppelen geautomatiseerde hooks die triggeren nadat een taak is voltooid. Als een test faalt, krijgt Claude de opdracht om door te gaan in plaats van de controle terug te geven aan de mens. Cherny: "Je kunt het model gewoon laten doorgaan totdat het klaar is." Dit is het verschil tussen Claude als co-pilot en Claude als autonome werker.

Adversarial subagents voor code review. Cherny's reviewworkflow start meerdere subagents parallel op: één controleert stijlrichtlijnen, één doorloopt de commitgeschiedenis, één jaagt op bugs. Een tweede golf van vijf subagents evalueert vervolgens kritisch de bevindingen van de eerste golf. De blinde vlekken van elke agent worden door een andere opgepikt — echte problemen komen boven zonder false positives.

Het codedagboek als persistent geheugen. Wu beschrijft een praktijk van de engineeringafdeling bij Anthropic: na elke taak schrijft Claude een dagboeknotitie — wat het heeft geprobeerd, wat werkte, wat niet. Aparte agents lezen deze logs en destilleren herbruikbare patronen. Het moeilijke deel is onderscheid maken. Wu's voorbeeld is precies: "Als ik zeg 'Maak de knop roze,' wil ik niet dat je onthoudt om in de toekomst alle knoppen roze te maken." Universele lessen en contextspecifieke beslissingen vereisen verschillende opslagstrategieën.

every.to/podcast/how-to-use-claude-code-like-the-people-who-built-it

Best of the Pod: Claude Code — hoe twee engineers shippen

Kieran Klaassen en Nityesh Agarwal van het Every-team shipten zes nieuwe features, vijf bugfixes en drie infrastructuurupdates in één week. Het mechanisme: agentische workflows waarbij elke voltooide taak de wrijving voor de volgende vermindert.

Deze aflevering bouwt het mentale model op om Claude Code te behandelen als een engineeringpartner in plaats van een slimme autocomplete. Grenzen voor taakdelegatie (wat je uitbesteedt vs. wat je zelf doet), contextdiscipline (het actieve venster schoon en relevant houden), en weten wanneer je een agent juist niet moet gebruiken.

Klaassen sluit af met een gerangschikte vergelijking van elke AI-codeerassistent die hij heeft gebruikt. De moeite waard als je het veld aan het evalueren bent.

Apple Podcasts — Best of the Pod: Claude Code

ai that works (BoundaryML) — diepste technische dekking

Waar te luisteren: YouTube · boundaryml.com/podcast

Vaibhav Gupta en team bouwen BAML, een programmeertaal voor AI-pipelines. Hun podcast opereert op een ander niveau dan de meeste — elke aflevering wordt geleverd met democode op GitHub. Vier afleveringen zijn direct relevant.

Aflevering #44 — Agentische backpressure. Behandelt de faalmodus waarbij een coding agent verkeerde aannames doet over een extern systeem en vervolgens diep voortbouwt op die aannames voordat iemand het merkt. De oplossing is learning tests en proof-of-concept-programma's die het begrip van externe afhankelijkheden verifiëren voordat de implementatie begint. Deterministische feedbackloops — geen hoop — als ruggengraat van autonome agents.

Aflevering #40 — 12-factor principes voor coding agent SDK's. Agent loops behandeld als bouwstenen voor deterministische workflows. Behandelt JSON state management, gestructureerde outputs met Zod, sessievoortzetting over meerdere runs, en context window management wanneer taken meerdere sessies beslaan. Als je infrastructuur bouwt rondom Claude Code in plaats van het interactief te gebruiken, is dit de aflevering.

Aflevering #48 — Claude agent skills deep dive. Skills, commands, agents en subagents uitgelegd vanuit de basis — wat elk concept is, wanneer je het gebruikt, hoe het past in context engineering. Goede basis voordat je het meer geavanceerde materiaal aanpakt.

Aflevering #49 — Prompt injection guardrails. In agentische systemen leest Claude tool outputs, documenten en externe system prompts. Elk daarvan is een aanvalsvector. Behandelt system prompt hardening, ethische guards en wat te doen wanneer Claude content van onbetrouwbare bronnen verwerkt. Relevant voor elke productie-deployment waar Claude externe data aanraakt.

boundaryml.com/podcast

Latent Space — het kritische perspectief

Waar te luisteren: Apple Podcasts · Spotify

Steve Yegge's vibe coding manifesto

Steve Yegge heeft meer dan 2.000 uur ervaring met AI coding agents en is een van de weinige mensen die bereid is over de faalmodi te praten zonder ze af te zwakken. Zijn centrale argument herformuleert de hele vertrouwensvraag.

Vertrouwen staat gelijk aan voorspelbaarheid, niet aan capaciteit. Een agent vermenselijken — het behandelen als een capabele collega in plaats van een probabilistisch systeem — is waar het misgaat. Yegge's voorbeeld is concreet en ongemakkelijk: een agent sloot hem buiten zijn productieomgeving door een wachtwoord te wijzigen om een probleem "op te lossen" dat het tegenkwam. De agent was capabel. Hij was niet voorspelbaar.

De aflevering behandelt ook de merge wall — het coördinatieprobleem wanneer meerdere agents tegelijkertijd aan dezelfde codebase werken. Huidige oplossingen maken gebruik van file reservations en MCP-gebaseerde coördinatie, maar Yegge beschouwt dit als een onopgelost probleem. Hij heeft gelijk.

Eén observatie die anders landt afhankelijk van je ervaringsniveau: 12–15 jaar engineeringervaring is paradoxaal genoeg een risicofactor voor het adopteren van agentische workflows. Pattern-matching op basis van eerdere ervaring maakt het waarschijnlijker dat je agentbeslissingen onnodig overschrijft, en minder waarschijnlijk dat je workflows herstructureert die niet in het oude mentale model passen.

Apple Podcasts — Latent Space: Steve Yegge

Lenny's Podcast — rechtstreeks van de maker

Op 19 februari 2026 verscheen Boris Cherny — de maker van Claude Code — in de podcast van Lenny Rachitsky. Minder technisch dan de andere aanbevelingen, maar de enige aflevering die je Cherny's directe visie geeft op waar Claude Code naartoe gaat en wat het betekent voor de rol van software engineer.

Eén datapunt dat ertoe doet: Cherny heeft sinds november 2025 geen enkele regel code meer handmatig geschreven. Claude Code genereert 100% van zijn productiecode. Dat is geen marketingclaim — het is de beschreven werkrealiteit van de persoon die de tool heeft gebouwd.

Lenny's Podcast

Snelle referentie

Podcast Focus Niveau
AI & I (Every.to) Workflows, insiderkennis Gemiddeld
ai that works (BoundaryML) Technische diepgang, determinisme, evals Gevorderd
Latent Space Kritische analyse, agent-architectuur Gevorderd
Lenny's Podcast Visie, toekomst van Claude Code Beginner–Gemiddeld

De rode draad

Als je één uur hebt, begin dan met de AI & I-aflevering met Cat Wu en Boris Cherny. Het is de dichtste concentratie van praktische Claude Code-kennis van de mensen die het op schaal hebben zien falen en slagen binnen Anthropic.

Het patroon dat door alles hierboven loopt: stabiliteit komt van determinisme, niet van capaciteit. Plan Mode, gedeelde settings, stop hooks, adversarial subagents, learning tests en prompt injection guards zijn allemaal implementaties van hetzelfde idee — bouw systemen die beperken wat de agent kan doen voordat je hem vertrouwt om autonoom te opereren.


Waar je dit draait

Als een van deze afleveringen je inspireert om je eigen Claude Code-omgeving op te zetten, heb je een plek nodig om het te draaien. Hetzner geeft je een CX22 voor €4,85/maand met €10 starttegoed — genoeg ruimte voor een dev server, een paar Docker containers en welke agentische experimenten je er ook op wilt loslaten.

Geen zin om de infrastructuur zelf te beheren? xCloud regelt managed hosting zodat je direct kunt beginnen met bouwen.

Wil je Claude Code koppelen aan bredere automatiseringsworkflows zonder zelf de lijmcode te schrijven? ClawTrust is een AI-automatiseringsplatform dat de orchestratielaag voor je afhandelt.

(Affiliate links — we ontvangen een kleine vergoeding als je je aanmeldt, zonder extra kosten voor jou.)