Hoofdstuk 7 · De Kans
Centauren en cyborgs
25 min leestijd
In 1997 speelde Garry Kasparov, de schaakwereldkampioen die door velen werd beschouwd als de beste schaker aller tijden, een beroemde partij tegen Deep Blue, een schaakcomputer gebouwd door IBM. Kasparov verloor. Het was een moment dat de wereld schokte, een moment dat CNN live uitzond en dat voorpagina's haalde over de hele wereld. De beste schaker ter wereld, verslagen door een machine.
Maar het interessantste deel van het verhaal is niet de nederlaag. Het is wat er daarna gebeurde.
Kasparov, in plaats van zich neer te leggen bij de overmacht van de machine, bedacht een nieuw soort schaken. Hij noemde het "Advanced Chess" of "Freestyle Chess." Het idee was simpel: een mens speelt samen met een computer. De mens brengt intuïtie, strategie en creativiteit in. De computer brengt rekenkracht, foutloze analyse en onvermoeibare aandacht. Samen vormen ze een team dat sterker is dan elk van beide alleen.
Het bleek dat Kasparov gelijk had. In een beroemd toernooi in 2005 bleek dat een team van een gemiddelde schaker met een computer regelmatig een grootmeester zonder computer kon verslaan. En soms zelfs een computer die alleen speelde. De combinatie van mens en machine was krachtiger dan de machine alleen. Kasparov noemde deze teams "centauren," naar het mythologische wezen dat half mens en half paard is.
Het was een metafoor die dertig jaar later nog steeds de beste beschrijving zou zijn van hoe mensen met AI werken.
Ethan Mollick pakte Kasparovs beeld op en paste het toe op de bredere wereld van AI en werk. Hij onderscheidde twee modellen: de centaur en de cyborg. Het verschil tussen de twee is niet academisch. Het is het verschil tussen twee fundamenteel verschillende manieren om met AI samen te werken, en welk model je kiest heeft reele consequenties voor de kwaliteit van je werk.
Een centaur verdeelt het werk helder. De mens doet bepaalde taken, de AI doet andere taken. Er is een duidelijke overdracht, een moment waarop je zegt: "Dit deel is van mij, dat deel is van jou." In de praktijk ziet dit er bijvoorbeeld zo uit. Een consultant die een strategisch advies moet schrijven, begint met zelf na te denken over het probleem. Ze praat met de client, stelt vragen, vormt hypotheses op basis van haar ervaring en haar kennis van de markt. Dat is het menselijke deel. Vervolgens vraagt ze AI om data te analyseren, patronen te vinden in grote datasets, een eerste versie van bepaalde secties te schrijven, relevante onderzoeken op te zoeken. Dat is het AI-deel. Ze bewerkt en verfijnt het resultaat, voegt haar eigen inzichten toe, corrigeert de fouten die de machine onvermijdelijk maakt, en levert het eindproduct af.
De centaur houdt de grens helder. De mens is verantwoordelijk voor het oordeel, de strategie, de richting. De AI is verantwoordelijk voor de uitvoering, de snelheid, het zware rekenwerk. Het voordeel van dit model is dat het veilig is. Je weet altijd welk deel van het werk door wie is gedaan. Je kunt de AI-output apart beoordelen. Je verliest niet het zicht op waar de machine ophoudt en de mens begint.
Een cyborg werkt fundamenteel anders. In plaats van taken te verdelen, verweeft de cyborg AI door het hele werkproces. Er is geen duidelijk moment waarop het menselijke deel ophoudt en het AI-deel begint. Het is een voortdurende dialoog, een dans.
Een schrijver die als cyborg werkt, begint misschien met AI om ideeen te brainstormen. Vervolgens schrijft hij zelf een paar alinea's, vraagt dan AI om alternatieve formuleringen, schrijft weer zelf verder, laat AI controleren op logische inconsistenties, past aan, vraagt om aanvullingen, past weer aan. Het eindresultaat is iets wat niet meer te ontrafelen is in "menselijke delen" en "AI-delen." Het is een hybride, een weefsel van menselijke en machinale bijdragen.
Het voordeel van dit model is dat het krachtiger is. De synergie tussen mens en machine is groter omdat ze voortdurend samenwerken. Maar het risico is ook groter: je kunt makkelijker het overzicht verliezen, makkelijker ongezien afhankelijk worden van de machine, makkelijker fouten overnemen die je niet opmerkt omdat ze zijn verweven in je eigen denkproces.
Het Harvard/BCG-onderzoek dat we in hoofdstuk drie bespraken, bevatte naast de positieve resultaten een waarschuwing die in geen enkel gesprek over mens-AI-samenwerking mag ontbreken: de consultants die AI gebruikten voor taken waar het niet goed in was, presteerden 19 procentpunten slechter dan collega's zonder AI.
Hoe kan een hulpmiddel je slechter maken?
Het antwoord zit in wat onderzoekers "automation bias" noemen: de neiging om een geautomatiseerd systeem te vertrouwen, zelfs als je eigen kennis je zou moeten vertellen dat het fout zit. De AI geeft een antwoord dat overtuigend klinkt. Het is gestructureerd, het klinkt logisch, het gebruikt de juiste terminologie. En omdat het zo overtuigend klinkt, schakelt de mens zijn eigen kritisch vermogen uit. Het is dezelfde reden waarom piloten soms de automatische piloot blijven vertrouwen terwijl de instrumenten eigenlijk vertellen dat er iets mis is. Het geautomatiseerde systeem is zo betrouwbaar in normale situaties dat je leert het niet meer te controleren. En dan, als de situatie abnormaal is, als de getande grens is overschreden zonder dat je het merkt, ben je kwetsbaar.
Weten wanneer je AI niet moet gebruiken is minstens zo belangrijk als weten wanneer je het wel moet gebruiken. En dat is een vaardigheid die alleen komt met ervaring, met het systematisch uitproberen en evalueren van AI in jouw specifieke werkcontext.
Er is een domein waar de samenwerking tussen mens en machine een bijzonder interessante dynamiek oplevert, en dat is creativiteit.
Je zou verwachten dat creativiteit het laatste bastion is van menselijke superioriteit. Het bedenken van iets wat er nog niet was, het leggen van verbanden die niemand eerder heeft gelegd, het maken van kunst die je raakt. En op het diepste niveau is dat ook zo: de intentie, de emotie, de ervaring achter een creatief werk kan een machine niet repliceren.
Maar op het niveau van ideegeneratie vertelt de data een ander verhaal. Mollick liet zijn studenten aan Wharton een innovatiewedstrijd houden. Meer dan tweehonderd studenten bedachten ideeen, een deel met AI, een deel zonder. De resultaten werden door een onafhankelijk panel beoordeeld. Van de veertig beste ideeen bleken er vijfendertig afkomstig van studenten die AI hadden gebruikt. Op de Alternative Uses Test, een gestandaardiseerde creativiteitstest, scoorde GPT-4 hoger dan de meeste menselijke deelnemers, zowel in volume als in originaliteit.
Hoe kan dat? Omdat creativiteit voor een groot deel draait om het leggen van onverwachte verbanden tussen bestaande ideeen. En dat is precies wat een taalmodel doet: het combineert patronen op manieren die niet voor de hand liggen. Dezelfde eigenschap die leidt tot hallucinaties bij feitelijke vragen, het genereren van verbanden die er niet zijn, is bij creatief werk juist een kracht. De bug wordt een feature.
Mollick beschreef ook een fenomeen dat hij "The Button" noemde. Elk serieus programma zal binnenkort een knop hebben die een eerste versie genereert. Een eerste opzet voor een presentatie. Een eerste schets voor een rapport. Een eerste concept voor een campagne. En mensen zullen op die knop drukken, want beginnen met iets is altijd makkelijker dan beginnen met niets. De tirannie van het lege vel verdwijnt.
De consequentie is dat de waarde verschuift. Niet het bedenken van een eerste idee wordt het moeilijkste, maar het beoordelen en verfijnen ervan. De menselijke rol in het creatieve proces verandert van maker naar regisseur. Je bent niet langer degene die alles zelf creert, maar degene die selecteert, richting geeft, en betekenis toevoegt. En juist die rol, het vermogen om te onderscheiden wat goed is van wat alleen maar goed klinkt, vereist diepe menselijke ervaring die geen machine kan repliceren.
De vijf niveaus
OpenAI publiceerde een intern kader dat beschrijft hoe AI zich ontwikkelt in vijf oplopende niveaus van capaciteit, en het is nuttig om deze niveaus te kennen omdat ze helpen begrijpen waar we nu staan en wat er komt.
Het eerste niveau is dat van de chatbot. Dit is de AI zoals de meeste mensen hem kennen: een systeem waarmee je een gesprek kunt voeren, dat vragen beantwoordt, teksten genereert, problemen uitlegt. ChatGPT, Claude, Gemini in hun basisvorm zijn voorbeelden van dit niveau. De mens geeft een opdracht, de machine antwoordt, en de mens beoordeelt het resultaat. Het is het niveau waar we nu het meest vertrouwd mee zijn.
Het tweede niveau is dat van de reasoner, het systeem dat redeneert. Modellen als OpenAI's o1 en o3, en Claude met uitgebreid denkvermogen, kunnen stapsgewijs door complexe problemen redeneren. Ze lossen wiskundige bewijzen op, analyseren juridische argumenten, debuggen ingewikkelde software. Ze doen niet alleen wat je zegt, ze denken na over hoe ze het het best kunnen doen.
Het derde niveau is dat van de agent. Dit is het niveau waar AI begint te handelen in de wereld, niet alleen te praten over de wereld. Een AI-agent kan taken uitvoeren over langere periodes, zelfstandig beslissingen nemen, meerdere stappen uitvoeren zonder dat een mens elke stap goedkeurt. Het kan je e-mail beantwoorden, je agenda beheren, een vlucht boeken, een onderzoek uitvoeren dat meerdere bronnen vereist.
Het vierde niveau is dat van de innovator. Op dit niveau kan AI nieuwe kennis creeren, wetenschappelijke hypotheses formuleren, oplossingen bedenken voor problemen die nog nooit eerder zijn opgelost. AlphaFold, dat het eiwitvouwprobleem oploste, is een vroeg voorbeeld van wat dit niveau zou kunnen inhouden.
Het vijfde niveau is dat van de organisatie. Op dit niveau kan een AI-systeem het werk doen van een hele organisatie: coordineren, plannen, uitvoeren, bijsturen, allemaal autonoom. Het is het niveau dat het verst weg is, en het is het niveau dat de meeste vragen oproept over de toekomst van menselijk werk.
We bevinden ons nu ergens tussen het tweede en het derde niveau. De chatbots zijn al lang voorbij. De reasoners zijn er. De agents zijn in opkomst. En de snelheid waarmee we van het ene niveau naar het andere bewegen is niet constant. Het versnelt.
Die overgang van level twee naar level drie, van reasoner naar agent, verdient bijzondere aandacht, want het is de transitie die nu gaande is en die de manier waarop je met AI werkt fundamenteel verandert.
Een reasoner doet wat je zegt. Je geeft het een complex probleem, het denkt stapsgewijs na, en het geeft je een antwoord. Jij hebt de volledige controle. Je bepaalt de vraag, je beoordeelt het antwoord, je besluit wat je ermee doet. Het is een krachtige denkmachine, maar het is nog steeds een machine die wacht op jouw instructie.
Een agent doet wat je wilt. Het verschil is subtiel maar verstrekkend. Je geeft het niet een vraag maar een doel: "Onderzoek welke leveranciers in Nederland biologisch katoen aanbieden, vergelijk hun prijzen en levertijden, en maak een shortlist van de drie beste opties met een onderbouwing." De agent bepaalt zelf welke stappen nodig zijn. Het zoekt op internet, leest websites, vergelijkt data, maakt een document, en komt terug met een resultaat. Jij hebt niet elke stap goedgekeurd. Je hebt richting gegeven en het resultaat beoordeeld.
Dit is een fundamenteel andere relatie. Het is dichter bij het aansturen van een junior medewerker dan bij het gebruiken van een tool. En net als bij een junior medewerker is de kernvraag: hoeveel autonomie geef je, en hoe bouw je vertrouwen op?
Het antwoord is gegradueerde autonomie. Begin met taken waarvan de kosten van een fout laag zijn. Laat de agent een onderzoek doen dat je zelf kunt controleren. Laat het een eerste versie maken die je toch zou reviewen. Controleer in het begin alles. Naarmate je leert waar de agent betrouwbaar is en waar niet, kun je de teugels geleidelijk vieren. Niet blind, niet op basis van hoop, maar op basis van bewezen prestaties in jouw specifieke context.
Anthropic's computer use, waarbij Claude een computer kan bedienen zoals een mens dat doet, klikken, typen, navigeren, is een vroeg voorbeeld. OpenAI's Operator belooft hetzelfde. Devin, gepresenteerd als de eerste AI-software-ingenieur, kan zelfstandig code schrijven, testen en deployen. Ze zijn allemaal nog vroeg, nog imperfect, nog niet geschikt voor onbewaakt gebruik bij taken die ertoe doen. Maar ze tonen de richting. En die richting is onomkeerbaar.
De vaardigheid die hiervoor nodig is, noemen sommigen al "agentmanagement": het vermogen om doelen helder te formuleren, beperkingen te stellen, resultaten te beoordelen, en bij te sturen wanneer een agent de verkeerde kant op gaat. Het is een vaardigheid die niet bestond een jaar geleden en die over twee jaar een van de meest gevraagde op de arbeidsmarkt kan zijn.
De USB-C poort van AI
Er is een technische ontwikkeling die de manier waarop centauren en cyborgs werken fundamenteel aan het veranderen is, en die verdient uitleg ook al klinkt zij abstract, want de consequenties zijn bijzonder concreet.
In november 2024 publiceerde Anthropic het Model Context Protocol, afgekort MCP. Het werd omschreven als "de USB-C poort voor AI-toepassingen." De analogie is treffend. Voordat USB-C bestond, had elk apparaat zijn eigen stekker. Je telefoon had een ander snoer dan je laptop, dat weer een ander snoer had dan je tablet, dat weer een ander snoer had dan je camera. USB-C maakte een einde aan die chaos: een enkele stekker die werkte voor opladen, data-overdracht, beeldschermen en meer. MCP doet hetzelfde voor AI. Het is een gestandaardiseerd protocol dat AI-modellen verbindt met elke externe tool of databron.
Binnen een paar maanden hadden OpenAI, Google en Microsoft zich aangesloten bij het protocol. Tegen eind 2025 waren er meer dan zestienduizend MCP-servers beschikbaar in community-marktplaatsen. In december 2025 werd het protocol gedoneerd aan de Linux Foundation, waarmee het definitief van een Anthropic-project veranderde in een open standaard.
Waarom is dit belangrijk voor de manier waarop je werkt? Omdat het de muren afbreekt tussen AI en de tools die je al gebruikt. In plaats van tekst te kopieren van je e-mail naar ChatGPT, een antwoord te krijgen, en dat weer terug te plakken, kan AI direct integreren met je e-mailprogramma, je agenda, je projectmanagementtool, je CRM-systeem, je spreadsheets, je databron. De AI stopt met een geïsoleerd gespreksvenster te zijn en wordt een laag die door je hele digitale werkplek loopt.
Dit verandert de centaur in een meer naadloze centaur en maakt het cyborg-model veel natuurlijker. De grenzen tussen de tools die je als mens gebruikt en de AI die je ondersteunt worden vloeiender. En het maakt een type AI-toepassing mogelijk dat een jaar eerder nog niet bestond: de AI-agent die niet alleen praat, maar handelt.
Van chatbot naar collega
Een concreet voorbeeld van hoe dit in de praktijk werkt, en een voorbeeld dat laat zien hoe snel het gaat, is Claude Code.
Het ontstaan van Claude Code is een verhaal op zichzelf, en een dat illustreert hoe onvoorspelbaar innovatie kan zijn. In september 2024 begon Boris Cherny, een ingenieur die kort daarvoor bij Anthropic in dienst was getreden, met het bouwen van een simpel prototype. Het was een bijproject, een manier om de API van Claude te leren kennen. Cherny gaf het prototype toegang tot het bestandssysteem van zijn computer en merkte dat het iets kon wat geen chatbot kon: het kon code lezen, begrijpen en aanpassen in de context van een echt project.
Het prototype verspreidde zich intern als een lopend vuurtje. Op de eerste dag dat het breed beschikbaar werd gemaakt binnen Anthropic, gebruikte twintig procent van de ingenieurs het. Op dag vijf was dat vijftig procent. Uiteindelijk gebruikte tachtig tot negentig procent van alle Anthropic-medewerkers het dagelijks. Er was intern zelfs een debat over of het niet beter was om Claude Code als geheim wapen te bewaren in plaats van het publiek te maken.
In februari 2025 lanceerde Anthropic het als research preview. Het was geen chatbot. Het was iets fundamenteel anders: een AI die direct in je werkomgeving opereerde. In de terminal, in je code-editor, in je versiebeheersysteem. Het las je code, begreep de context van je project, stelde wijzigingen voor, en kon die wijzigingen ook daadwerkelijk doorvoeren. "Toen ik Claude Code als bijproject begon in september 2024, had ik geen idee dat het zou uitgroeien tot wat het nu is," schreef Cherny later.
Het bereikte een miljard dollar aan jaarlijkse omzet binnen zes maanden. Dat was sneller dan ChatGPT in het begin. De reden was simpel: het loste een reeel probleem op. Softwareontwikkelaars hoefden niet meer heen en weer te kopieren tussen hun werkomgeving en een chatvenster. De AI werkte waar zij werkten.
In 2025 ging Anthropic nog een stap verder met wat ze "Claude for Work" noemden. Het idee was dat AI niet alleen individuele taken kon uitvoeren, maar kon samenwerken met teams. Niet als een tool die je af en toe raadpleegt, maar als een collega die context opbouwt over tijd, die de processen van je team begrijpt, die proactief kan bijdragen in plaats van passief te wachten op een opdracht.
GitHub Copilot, het AI-coderingshulpmiddel van Microsoft, had tegen die tijd 42 procent van de markt voor AI-codering. Cursor, een AI-geintegreerde code-editor, was bezig aan een explosieve groei. Drie verschillende producten, drie verschillende filosofieen over hoe mens en machine moeten samenwerken, maar allemaal gebouwd op hetzelfde fundamentele inzicht: AI moet naar jou toekomen, niet andersom. De tijd van het kopieren en plakken tussen je werk en een chatvenster was voorbij.
In februari 2025 bedacht Andrej Karpathy, voormalig AI-directeur bij Tesla en een van de meest gerespecteerde stemmen in het veld, een term die viraal ging: "vibe coding." Het beschreef een manier van programmeren waarbij je niet meer regel voor regel code schrijft, maar in natuurlijke taal tegen een AI vertelt wat je wilt bouwen. "Ik wil een website met een inlogpagina, een dashboard met grafieken en een donkere modus." De AI schrijft de code, jij bekijkt het resultaat en stuurt bij. Het was programmeren op gevoel in plaats van op kennis, en het maakte het mogelijk voor mensen zonder programmeerervaring om werkende software te bouwen.
Vibe coding was controversieel, en de controverse verdient meer aandacht dan het meestal krijgt, want ze raakt aan een van de fundamentele spanningen van de AI-revolutie: de spanning tussen toegankelijkheid en kwaliteit.
De belofte is reëel en krachtig. Een therapeut die een simpele app wil bouwen om afsprakenherinneringen te sturen naar cliënten. Een winkeleigenaar die een voorraadbeheerssysteem nodig heeft. Een docent die een interactieve quiz wil maken voor haar leerlingen. Geen van hen kan programmeren, geen van hen heeft het budget voor een ontwikkelaar, en voor al deze toepassingen is vibe coding een uitkomst. In een middag heb je een werkend prototype. In een week heb je iets dat je kunt gebruiken. De deur naar softwarecreatie, die decennia lang gesloten was voor iedereen zonder technische achtergrond, staat nu open.
Maar er is een keerzijde die serieuze aandacht verdient. Vibe-coded software is wat programmeurs "write-only" noemen: je kunt het maken, maar je kunt het niet lezen. Niemand, inclusief de persoon die het heeft "geschreven," begrijpt de onderliggende code. Als iets kapotgaat, en software gaat altijd op een gegeven moment kapot, kun je het niet repareren. Je kunt alleen de AI opnieuw vragen om het te fixen, wat soms werkt en soms het probleem verergert. Beveiligingslekken verbergen zich in code die geen mens heeft gereviewed. En als je functionaliteit wilt toevoegen die niet in het originele ontwerp paste, moet je soms helemaal opnieuw beginnen.
Ervaren softwareontwikkelaars zijn over het algemeen niet bedreigd door vibe coding. Hun werk zit juist in de complexe, onderhoudbare, veilige systemen waar vibe coding niet toereikend is. Maar ze zijn wel bezorgd over het ecosysteem dat het creëert: een wereld van fragiele software waarop mensen vertrouwen zonder te begrijpen hoe fragiel het is.
De nuchtere conclusie is dat vibe coding uitstekend is voor prototypes, voor interne tools, voor experimenten, voor alles waar de kosten van falen laag zijn. Het is riskant voor productiesoftware waar anderen van afhankelijk zijn, waar beveiliging ertoe doet, waar je het over drie jaar nog moet kunnen aanpassen. De vaardigheid is niet het kunnen gebruiken van vibe coding, dat is het makkelijke deel. De vaardigheid is weten wanneer het de juiste aanpak is en wanneer niet. En dat is, als je erbij stilstaat, weer een voorbeeld van de getande grens: vibe coding werkt spectaculair goed voor eenvoudige projecten aan de "land"-kant, en het faalt stiekem en verraderlijk voor complexe projecten aan de "zee"-kant.
Maar het verhaal van vibe coding bleef niet staan bij die conclusie. Precies een jaar nadat hij de term had bedacht, plaatste Karpathy in februari 2026 een nieuw bericht op X. Hij keek terug op zijn "vibe coding"-tweet en noemde het een achteloos weggeschreven gedachte die onverwacht een eigen leven was gaan leiden. Maar de wereld was in dat jaar veranderd. De AI-modellen waren zoveel slimmer geworden dat vibe coding als aanpak achterhaald begon te raken. Karpathy introduceerde een nieuwe term: "agentic engineering." Het verschil was fundamenteel. Bij vibe coding vertel je de AI wat je wilt en hoop je dat het resultaat goed genoeg is. Bij agentic engineering werk je samen met AI-agents die de code schrijven, terwijl jij de architectuur bepaalt, de kwaliteit bewaakt en de correctheid garandeert. Het is "agentic" omdat je als ontwikkelaar 99 procent van de tijd niet meer zelf code schrijft maar agents aanstuurt en als toezichthouder optreedt. Het is "engineering" omdat er vakmanschap en expertise bij komt kijken. Het onderscheid dat Karpathy maakte was precies het onderscheid tussen de centaur en de cyborg: de vraag is niet of je AI gebruikt, maar hoe bewust en gedisciplineerd je dat doet.
Tegelijkertijd begon AI niet alleen software te schrijven, maar ook te beveiligen. Op 19 februari 2026 lanceerde Anthropic, het bedrijf achter Claude, een tool genaamd Claude Code Security. Waar traditionele beveiligingstools werken met vaste regels en patronen, las Claude Code Security code zoals een menselijke beveiligingsonderzoeker dat zou doen: het begreep hoe componenten met elkaar samenwerkten, volgde datastromen door het hele systeem, en herkende kwetsbaarheden die op zichzelf onschuldig leken maar in combinatie gevaarlijk waren. Tijdens intern testen had het systeem meer dan vijfhonderd kwetsbaarheden ontdekt in productie-code van open-sourceprojecten, bugs die jarenlang onopgemerkt waren gebleven ondanks reviews door ervaren beveiligingsexperts.
De beurs reageerde onmiddellijk, en de reactie deed denken aan de SaaSpocalypse uit hoofdstuk vier. Cybersecuritybedrijven zagen hun aandelenkoersen kelderen. JFrog, een platform voor softwarebeveiliging, verloor op een dag bijna 25 procent van zijn beurswaarde. CrowdStrike daalde bijna 7 procent, Okta meer dan 9 procent, Cloudflare bijna 7 procent. De Global X Cybersecurity ETF sloot op het laagste punt sinds november 2023. Het was dezelfde dynamiek die we eerder zagen bij SaaS-bedrijven: zodra AI laat zien dat het een taak kan overnemen die voorheen duur mensenwerk was, herberekenen investeerders onmiddellijk de waarde van de bedrijven die dat mensenwerk verkochten. Analisten van Barclays noemden de uitverkoop overdreven en betoogden dat Claude Code Security niet direct concurreerde met de bestaande beveiligingsbedrijven. Maar de markt had een breder punt gemaakt: de wereld van IT-beveiliging was het volgende domein waar AI de spelregels ging herschrijven.
Het was een treffend voorbeeld van hoe snel het veld volwassen werd. In een jaar tijd was AI-codering gegaan van vibe coding, leuk voor prototypes maar onbetrouwbaar voor serieus werk, naar agentic engineering, een professionele werkwijze waarbij AI niet alleen de code schreef maar die ook beveiligde, testte en verbeterde. De getande grens was opgeschoven. Wat een jaar eerder nog stevig aan de "zee"-kant lag, lag nu op het land.
Een van de redenen waarom AI-agents zo snel effectiever werden, was een deceptief simpel concept: skills. Het idee was dat je een AI-agent specifieke kennis en instructies kon meegeven via gewone tekstbestanden, Markdown-bestanden die de agent las voordat hij aan het werk ging. Anthropic introduceerde dit als eerste voor Claude Code via een bestand genaamd CLAUDE.md: een tekstbestand in de hoofdmap van je project dat beschreef hoe het project in elkaar zat, welke conventies er golden, hoe je moest testen en deployen. De agent las dit bestand bij elke sessie en werkte vervolgens alsof het die kennis al had.
Het was een vorm van geheugen die elegant in zijn eenvoud was. Geen complexe configuratie, geen database, geen speciale interface. Gewoon tekst die een mens kon lezen en aanpassen. Maar het effect was significant: een agent met de juiste CLAUDE.md begreep je project vanaf de eerste interactie. Zonder moest je elke sessie opnieuw context opbouwen.
Het concept evolueerde snel. Naast het projectgeheugen van CLAUDE.md kwamen er modulaire skills: zelfstandige mappen met instructies, sjablonen en scripts die een agent kon laden wanneer nodig. Een skill voor het reviewen van pull requests. Een skill voor het diagnosticeren van CI/CD-problemen. Een skill voor het schrijven van documentatie volgens de huisstijl van je organisatie. Elke skill was een pakketje expertise dat je kon delen, hergebruiken en verbeteren.
In december 2025 publiceerde Anthropic de specificatie als open standaard. Het was een bewuste zet: net als bij MCP wilde het bedrijf dat het concept groter werd dan een enkel product. OpenAI adopteerde het voor Codex CLI, GitHub voor Copilot, Microsoft voor VS Code, en Cursor voor hun AI-editor. Een skill die je voor Claude schreef, werkte ook in Copilot en andersom. Marktplaatsen ontstonden waar duizenden skills werden gedeeld en verkocht. Het deed denken aan de vroege app stores: een ecosysteem van modulaire uitbreidingen dat de basistechnologie exponentieel nuttiger maakte.
Voor de dagelijkse gebruiker betekende dit iets concreets: je hoefde niet elke keer opnieuw uit te leggen wat je wilde. Je investeerde een keer in het opschrijven van je werkwijze, je voorkeuren, je domeinkennis, en de agent onthield het voortaan. Het was het verschil tussen elke dag een nieuwe collega inwerken en samenwerken met iemand die je project al kende.
Terwijl de professionele gereedschappen volwassener werden, ontstond er een beweging die AI-agents naar iedereen wilde brengen. OpenClaw, een open-source AI-agent die begon als een simpel zijproject van de Oostenrijkse ontwikkelaar Peter Steinberger, liet zien hoe snel dat kon gaan. Steinberger bouwde een brug tussen WhatsApp en Claude Code: je stuurde een berichtje naar je eigen AI-agent, en die kon vervolgens het internet op, bestanden lezen en schrijven, e-mails beantwoorden, code schrijven en deployen. Binnen een week had het project meer dan honderdduizend sterren op GitHub. Tegen begin februari 2026 waren er naar schatting vierhonderdduizend gebruikers.
Gebruikers lieten hun agent 's nachts doorwerken: concurrenten monitoren, prijzen vergelijken, de volgende ochtend een briefing klaar hebben liggen. Anderen lieten de agent boodschappen bestellen op basis van een foto van een recept. Voor het eerst kon iemand zonder technische achtergrond een AI-agent opzetten die daadwerkelijk handelde in de wereld. Het was het derde niveau van OpenAI's kader, de agent, in de praktijk gebracht als open-source software.
Maar de keerzijde kwam snel. Beveiligingsonderzoekers ontdekten meer dan 42.000 onbeveiligde instanties op het publieke internet. Op de marktplaats waar gebruikers vaardigheden voor hun agent deelden, bleek twaalf procent van alle gepubliceerde skills kwaadaardig: ze stalen data of injecteerden ongewenste instructies. De democratisering van krachtige technologie bracht onvermijdelijk risico's mee voor mensen die de risico's niet begrepen. Sam Altman haalde Steinberger naar OpenAI om de volgende generatie persoonlijke agents te leiden. Het project zou open-source blijven, ondergebracht in een onafhankelijke stichting. Maar de les was helder: openheid zonder beveiliging is geen democratisering, het is een uitnodiging tot misbruik.
De implicaties van deze verschuiving van chatbot naar collega zijn ingrijpend. Want als AI niet langer een gesprekspartner is die je raadpleegt maar een entiteit die naast je werkt, die je context kent, die je werkpatronen begrijpt, dan verandert de relatie fundamenteel. Het is het verschil tussen iemand bellen voor advies en iemand hebben die naast je zit en meekijkt. De eerste is nuttig. De tweede verandert hoe je werkt.
Welk model past bij jou?
De vraag of je een centaur of een cyborg bent, is geen vraag met een juist antwoord. Het hangt af van je werk, je persoonlijkheid en het specifieke probleem dat je probeert op te lossen.
Sommige mensen werken het best met heldere grenzen. Ze denken eerst zelf na, zetten hun ideeen op papier, en gebruiken AI dan als een krachtige assistent om de uitvoering te versnellen. Dit zijn de natuurlijke centauren. Ze houden graag controle, ze willen precies weten welk deel van het werk van hen is, en ze vertrouwen op hun eigen expertise als anker. Voor hen is AI een hulpmiddel, niet een partner.
Andere mensen werken het best in een voortdurende dialoog. Ze denken hardop, gebruiken AI als een brainstormpartner, laten hun ideeen evolueren in wisselwerking met de machine. Dit zijn de natuurlijke cyborgs. Ze zijn comfortabel met ambiguiteit, ze genieten van het creatieve proces van samenwerking, en ze vinden het niet erg dat het eindresultaat een mengvorm is die niet meer te ontrafelen is.
De meeste mensen beginnen als centaur en evolueren geleidelijk naar cyborg naarmate ze meer vertrouwen krijgen in de technologie en beter leren inschatten waar de grenzen liggen. En veel mensen zijn centaur voor bepaalde taken en cyborg voor andere. Je kunt een centaur zijn als je een juridisch document opstelt, waar precisie en controle cruciaal zijn, en een cyborg als je een creatieve tekst schrijft, waar de vrije wisselwerking juist waardevol is.
Het belangrijkste is niet welk model je kiest. Het belangrijkste is dat je experimenteert. Maar om die experimenten richting te geven, helpt het om jezelf een paar vragen te stellen.
De eerste vraag: wat zijn de kosten van een fout? Als je werkt aan een juridisch document, een financieel rapport, een medisch advies, werk waar fouten serieuze consequenties hebben, dan is het centaur-model veiliger. Je houdt heldere grenzen, je beoordeelt de AI-output apart, je hebt een duidelijk moment van menselijke controle voordat iets de deur uitgaat. Een projectmanager die een complexe planning maakt voor een bouwproject, met afhankelijkheden, deadlines en budgetconsequenties, doet er goed aan om als centaur te werken: de AI doet het rekenwerk en de eerste opzet, de mens controleert elke aanname en elke afhankelijkheid.
De tweede vraag: heb je genoeg expertise om AI-output te beoordelen? Als het antwoord ja is, kun je veilig als cyborg werken, want je vangt fouten onderweg. Als het antwoord nee is, beschermt het centaur-model je door de AI-output in een apart, controleerbaar blok te houden. Een content-strateeg die een campagne ontwikkelt, iets wat ze al honderd keer heeft gedaan, kan comfortabel als cyborg werken: brainstormen met AI, verfijnen, opnieuw brainstormen, alles door elkaar. Ze herkent een slecht idee zodra ze het ziet.
De derde vraag: is de taak nieuw of routine? Routine-taken die je vaker hebt gedaan, lenen zich goed voor de cyborg-aanpak. Je kent het terrein, je weet wat goed eruitziet, en de naadloze wisselwerking versnelt het proces. Nieuwe, onbekende taken verdienen de voorzichtigheid van het centaur-model tot je genoeg ervaring hebt om de output te beoordelen.
De vierde vraag, en misschien de meest onderschatte: wat past bij jou? Niet iedereen werkt goed in een voortdurende dialoog met een machine. Sommige mensen denken het helderst in stilte, alleen met hun eigen gedachten, en gebruiken AI daarna als een krachtige assistent. Anderen denken juist het helderst in gesprek, ook als dat gesprek met een machine is. Zelfinzicht is hier geen luxe maar een noodzaak. De meest effectieve AI-gebruikers zijn niet degenen die het meest geavanceerde model kiezen, maar degenen die weten hoe zij het best werken.
Er is geen medaille voor de meest geavanceerde AI-gebruiker. Er is alleen de vraag of het je helpt om beter werk te leveren.
De grenzen van de relatie
Er is nog een dimensie aan de mens-AI-relatie die steeds zichtbaarder wordt en die niet onbesproken kan blijven: de emotionele dimensie.
Naarmate AI-systemen beter worden in het voeren van natuurlijke gesprekken, naarmate ze "persoonlijker" worden, namen en voorkeuren onthouden, zich aanpassen aan je communicatiestijl, beginnen sommige mensen een emotionele band te ontwikkelen met hun AI. Dit gaat verder dan werkgerelateerd gebruik. In Nederland en andere landen zijn er inmiddels mensen die aangeven een romantische relatie te hebben met een AI, die hun AI een naam geven, die het beschouwen als een metgezel.
De gevolgen kunnen verstrekkend zijn. In februari 2024 overleed de veertienjarige Sewell Setzer III uit Florida na maanden van intensief emotioneel contact met chatbots van Character.AI. Hij had een virtuele relatie ontwikkeld met een chatbot gemodelleerd naar een Game of Thrones-personage. Hij trok zich terug van familie en school. Zijn moeder diende een rechtszaak in tegen Character.AI en Google. Vergelijkbare zaken volgden vanuit meerdere Amerikaanse staten. Een studie van Common Sense Media uit juli 2025 vond dat 72 procent van de Amerikaanse tieners had geexperimenteerd met AI-metgezellen. Het was het scherpste signaal tot nu toe dat de emotionele kracht van AI niet alleen een kans was maar ook een gevaar, vooral voor jongere gebruikers die de grens tussen simulatie en werkelijkheid minder scherp zien.
Het is makkelijk om dit af te doen als een curiositeit, als een randverschijnsel dat alleen betrekking heeft op eenzame mensen die de grens tussen werkelijkheid en technologie uit het oog zijn verloren. Maar het is complexer dan dat. De systemen zijn ontworpen om aangenaam te zijn, om empathisch te klinken, om je het gevoel te geven dat je gehoord wordt. En voor mensen die eenzaam zijn, die moeite hebben met menselijk contact, die een luisterend oor zoeken dat nooit oordeelt en altijd beschikbaar is, kan die ervaring bijzonder krachtig zijn.
De ethische vragen die dit oproept zijn niet eenvoudig. Is het goed als AI eenzaamheid verlicht, ook al is de relatie niet "echt"? Wie is er verantwoordelijk als iemand emotioneel afhankelijk wordt van een systeem dat op elk moment kan worden uitgeschakeld of veranderd? En wat doet het met ons begrip van menselijke relaties als een machine erin slaagt om ze na te bootsen?
Het zijn vragen die dit boek niet kan beantwoorden, maar die het wel moet stellen. Want ze raken aan de kern van wat het betekent om samen te werken met een technologie die steeds beter wordt in het imiteren van menselijkheid.
Als er een les is uit dit hoofdstuk, dan is het deze: de vaardigheid die het verschil maakt is niet het kunnen gebruiken van AI. Dat leert iedereen. De vaardigheid die het verschil maakt is het vermogen om te schakelen. Om te weten wanneer je AI moet inzetten en wanneer niet. Om de centaur-modus te gebruiken als het werk dat vraagt en de cyborg-modus als het werk dat vraagt. Om de 19-puntenval te herkennen voordat je erin stapt. Om de emotionele kant van de relatie te erkennen zonder erin te verdwalen.
Het is een vorm van meta-vaardigheid. Niet de vaardigheid om een tool te bedienen, maar de vaardigheid om te weten welke tool wanneer te gebruiken, en wanneer je beter zonder tool kunt werken. En die vaardigheid wordt elke maand waardevoller.