OpenClaw hardwaregids: gateway, compute en browser zijn drie afzonderlijke problemen
Het Mac mini versus x86-debat mist de essentie. OpenClaw heeft drie afzonderlijke hardwarerollen — gateway, inferentie en browser — elk met verschillende vereisten. Hier leest u hoe u erover kunt nadenken.
De meeste hardwarediscussies over OpenClaw formuleren de vraag als "Mac mini vs x86 workstation" en besteden vervolgens 2.000 woorden aan het debatteren over unified memory bandwidth. Dat is de verkeerde invalshoek.
De architectuur van OpenClaw maakt de echte vraag duidelijk: wat draai je daadwerkelijk? Het gateway-proces, local inference en browser automation hebben compleet verschillende hardwareprofielen. Eén daarvan goed inrichten betekent niet automatisch dat de andere ook kloppen.
De drie hardwarerollen
OpenClaw is gateway-first. Eén enkel Gateway-proces beheert je messaging-kanalen — WhatsApp, Telegram, Slack — en draait een WebSocket control plane waar al het andere op aansluit (standaard: 127.0.0.1:18789). Clients, automations en nodes verbinden zich daar allemaal mee.
Uit dat ontwerp komen drie hardwarerollen voort:
- Gateway host — altijd aan, beheert kanaalverbindingen en workspace-data, voert tool execution uit
- Compute host — local inference, GPU, KV-cache, parallelle modelsessies
- Browser host — Playwright of CDP, verwerkt web automation-taken
De eigen documentatie van OpenClaw behandelt "één gateway per host" als ontwerpprincipe: de gateway is het enige proces dat een WhatsApp Web-sessie mag beheren. Voor multi-user isolation wil je meerdere gateways op aparte hosts — niet één gedeelde gateway die je opschaalt. Dit beïnvloedt aankoopbeslissingen meer dan welke benchmark dan ook.
Gateway: stabiliteit is belangrijker dan prestaties
De gateway zelf is niet rekenintensief. Wat de hardwarevereisten bepaalt:
- Single-thread performance voor de event loop en I/O
- Voldoende cores voor parallelle tool execution — Playwright, ffmpeg, CLI-taken, containers
- Betrouwbare opslag voor workspaces, bijlagen en logs die continu groeien
Zonder local inference dekt 32 GB RAM een gateway die Playwright en tools comfortabel draait. Een Mac mini M4 (of M4 Pro) is een sterke gateway host — optioneel 10GbE, tot 64 GB unified memory, maximaal 155 W continu stroomverbruik. Een x86 mini-PC met 2.5GbE en een kwalitatieve NVMe dekt dezelfde behoefte op Linux of WSL2.
Opslag verdient hier aandacht. Workspaces, bijlagen, logs en model artefacts groeien constant. De Samsung 990 Pro 2 TB wordt geleverd met 1.200 TBW en AES-256 full-disk encryption — dat uithoudingscijfer is belangrijker dan piek sequentiële leessnelheid voor een langlopende gateway.
Local inference: VRAM is de beperkende factor
Local inference toevoegen verandert de vergelijking volledig. De bottleneck is zelden rekenkracht (FLOPS). Het is geheugen: modelgewichten geladen in het juiste precision format, plus een KV-cache die lineair groeit met batch size en sequence length.
Een concreet voorbeeld: Llama 2 7B op FP16, 4K context, batch size 1 heeft ruwweg 2 GB nodig voor alleen de KV-cache. Schaal context of parallelisme op en je beschikbare geheugen is snel uitgeput. Meer VRAM is de meest directe hefboom voor langere contexts en meer gelijktijdige sessies.
Hier loopt het argument "unified memory vervangt VRAM" tegen een structurele muur aan:
- Apple M4 Pro: 273 GB/s unified memory bandwidth
- NVIDIA RTX 4090: 1.008 GB/s, 24 GB GDDR6X, 450 W TBP
- NVIDIA RTX 6000 Ada: 960 GB/s, 48 GB ECC VRAM, 300 W TBP
Deze zijn niet vergelijkbaar voor serving workloads. Apple Silicon verwerkt single-user, gematigde-model inference goed. Voor teamgebruik, lange contexts of meerdere parallelle sessies schaalt x86 met een discrete GPU op manieren die de Mac mini niet kan — er zijn geen PCIe-slots, geen pad naar meer VRAM, geen modulaire upgrade-optie.
Een praktische opmerking over AMD: vLLM ondersteunt ROCm, maar de officiële compatibiliteitsmatrix is beperkt en de operationele overhead is reëel. Verifieer ROCm-ondersteuning voor je specifieke GPU voordat je koopt. CUDA-first toolchains (vLLM, MLPerf) zijn om goede redenen de productiestandaard.
Browser automation: headless-frictie is reëel
OpenClaw headless draaien op een server is prima voor de gateway zelf. Web automation is waar headless-setups frictie veroorzaken.
OpenClaw ondersteunt drie patronen voor browser control:
- Node host proxy — een node-proces draait op de browsermachine; de gateway routeert browseracties er doorheen
- Remote CDP — configureer
browser.profiles.<name>.cdpUrlom OpenClaw naar een externe Chromium te laten wijzen via Chrome DevTools Protocol - Local Playwright headless — werkt voor de meeste server-side automation maar triggert botdetectie op sommige sites
De documentatie van OpenClaw benoemt dit direct: voor sites zoals X/Twitter is een reguliere browsersessie op de host van de gateway betrouwbaarder dan een sandboxed of headless sessie. Remote browser control is in feite operator-toegang — behandel het zo in je beveiligingsmodel. Houd gateway- en node-poorten alleen op je tailnet.
Voor browser automation op schaal of waar CAPTCHA-afhandeling belangrijk is, zijn gehoste browserdiensten (Browserless integreert met OpenClaw) het praktische antwoord. Je betaalt niet voor automatiseringsmogelijkheden — je betaalt om de infrastructuur niet zelf te hoeven beheren.
Hardwareniveaus
Instap (persoonlijk/hobbyist)
De Mac mini M4 dekt dit niveau goed aan de Apple-kant. Op Linux verwerkt een x86 mini-PC met 2.5GbE, 32 GB RAM en een 1 TB NVMe gateway plus tools zonder frictie. Windows-gebruikers: OpenClaw raadt WSL2 (Ubuntu) aan om Linux-tooling consistent te houden — reken extra RAM in voor de VM-overhead.
Houd inference via API op dit niveau. De rekensom voor local inference gaat pas op als je een workload hebt die de hardware rechtvaardigt.
Freelancer / solo-pro
Een single-GPU workstation: 12–16 cores, 64–128 GB RAM, 2× NVMe (OS/services en workspace/database gescheiden), GPU in het bereik van 16–24 GB VRAM. De RTX 4090 (24 GB, \~1.008 GB/s) is het prosumer-plafond, maar 450 W TBP is een reële overweging voor een machine die altijd aan staat.
10GbE wordt de moeite waard zodra de inference host op een aparte machine staat en je regelmatig model artefacts of grote bijlagen over het netwerk verplaatst.
Bedrijf / team
Scheid de rollen: gateway host, inference server, browser node. Een gecombineerde machine is niet het antwoord op teamschaal.
Het beveiligingsargument weegt hier onafhankelijk van prestaties: de gateway is een geauthenticeerde operator boundary. Gebruikers die toegang hebben tot de gateway hebben operator-level access. Approval gates verminderen fouten maar bieden geen per-user isolation af. Meerdere gateways op aparte hosts is de juiste architectuur voor multi-user deployments.
Inference server: de RTX 6000 Ada (48 GB ECC, 960 GB/s, 300 W) is een beter onderhoudbare productiekeuze dan de RTX 4090. ECC memory is belangrijk voor langlopende workloads. 300 W aan de muur vereist niet het heroverwegen van PSU en koeling zoals 450 W dat wel doet.
Wat betreft platform: Threadripper PRO (128 PCIe 5.0 lanes) of EPYC (12 DDR5 memory channels) afhankelijk van of multi-GPU of memory bandwidth de beperkende factor is.
De Mac mini-vraag
De Mac mini M4 is een goede gateway host. De hardware past bij wat een gateway nodig heeft: laag stroomverbruik in idle, 10GbE beschikbaar, tot 64 GB unified memory, stil.
Het verhaal dat "Apple Silicon voldoende is voor alles" valt uiteen bij serving. 273 GB/s unified memory bandwidth versus 960 GB/s op een dedicated GPU is een structureel verschil, geen benchmark-voetnoot. Tel daarbij op dat er geen PCIe-slots zijn voor meer VRAM, geen intern upgradepad, en dat productie-serving stacks CUDA-first zijn — en het plaatje is duidelijk.
De duurzame architectuur: houd de gateway goedkoop en stabiel, duw inference naar een aparte host met echte VRAM. Dat houdt de gateway betrouwbaar en maakt de inference-laag vervangbaar zonder je messaging-kanalen aan te raken.
Als je een specifieke OpenClaw-hardwareconfiguratie debugt met een AI-assistent, plak dan de URL van dit bericht in het gesprek. De architectuur- en niveauredenering hier geeft het model voldoende context om vervolgvragen over je setup te beantwoorden.
Waar je dit kunt draaien
Als je OpenClaw wilt zonder de hardwarevraag te hoeven beheren, host xCloud het managed. Je krijgt de gateway zonder een weekend aan infrastructuurbeslissingen — handig terwijl je evalueert of local inference de investering waard is voor je daadwerkelijke workload.
Aan de VPS-kant — alles van de gateway host tot de inference server — dekt Hetzner het bereik van €4,85/maand op een CX22 tot dedicated GPU-servers wanneer local inference serieus wordt. €10 starttegoed.
(Affiliate links — wij ontvangen een kleine vergoeding als je je aanmeldt, zonder extra kosten voor jou.)
Bronnen
- OpenClaw-documentatie — gateway-architectuur, Node host proxying, remote CDP-configuratie
- vLLM docs — CUDA en ROCm GPU-ondersteuningspaden en compatibiliteitsmatrices
- OpenClaw on a VPS: secure deploy with Docker and Tailscale — gateway deployment-patronen
- Managed OpenClaw hosting vs. DIY VPS — kosten- en afwegingsvergelijking