Hoofdstuk 3 · De Aankomst
Wat AI werkelijk is (en wat niet)
24 min leestijd
Er is een vraag die bijna iedereen stelt als het over AI gaat, en het is een vraag die moeilijker te beantwoorden is dan je zou denken: wat is het eigenlijk?
Niet in de filosofische zin. Niet de vraag of AI bewustzijn heeft, of het kan denken, of het een ziel heeft. Die vragen zijn fascinerend maar niet bijzonder nuttig als je probeert te begrijpen hoe AI jouw werk gaat beinvloeden. De vraag die er toe doet is praktischer: wat kan het, wat kan het niet, en hoe weet je het verschil?
Om die vraag te beantwoorden moeten we eerst begrijpen hoe de modellen werken die we vandaag kennen. Niet op het niveau van de wiskundige formules, maar op het niveau van de intuïtie. Want als je begrijpt wat een taalmodel doet, begrijp je ook waarom het briljant is op sommige momenten en verbijsterend dom op andere.
De taalmodellen die we vandaag kennen, van ChatGPT tot Claude tot Gemini, werken op een manier die tegelijkertijd verbazingwekkend simpel en verbazingwekkend complex is. De simpele versie is dit: ze voorspellen het volgende woord. Dat is het. Gegeven een reeks woorden voorspellen ze welk woord er het meest waarschijnlijk op volgt. Dan voegen ze dat woord toe aan de reeks en voorspellen ze het volgende. En zo verder, woord na woord, tot er een heel antwoord staat.
Als je dit leest en denkt "maar dat klinkt helemaal niet intelligent," dan heb je een punt. Het klinkt als een soort geavanceerde autocomplete, zoals de suggesties op je telefoon als je een bericht typt. En in zekere zin is dat ook wat het is. Je telefoon suggereert misschien "Groetjes" na "Met vriendelijke," en een taalmodel doet iets vergelijkbaars, maar dan op een schaal die het verschil maakt tussen een amusant trucje en iets wat op intelligentie begint te lijken.
Want hier is waar het complex wordt. Om goed te kunnen voorspellen wat het volgende woord is, moet een model enorm veel "begrijpen" over taal, context, feiten, logica en de relaties tussen al deze dingen. Als iemand schrijft "De hoofdstad van Nederland is" dan moet het model niet alleen weten dat "Amsterdam" een waarschijnlijk volgend woord is, maar ook begrijpen wat een hoofdstad is, wat Nederland is, en hoe feiten in zinnen worden uitgedrukt. Als iemand een wiskundig bewijs opschrijft en vraagt "wat is de volgende stap," dan moet het model iets begrijpen van wiskundige logica om een zinvol antwoord te geven. Als iemand in het Nederlands een vraag stelt en een antwoord verwacht in het Engels, dan moet het model iets begrijpen van de relatie tussen talen.
Schaal dat op naar de biljoenen woorden waarop deze modellen zijn getraind, hele bibliotheken, het internet, wetenschappelijke papers, boeken, gesprekken, forums, en er ontstaat iets wat niemand volledig had voorspeld. De modellen begonnen niet alleen woorden te voorspellen. Ze begonnen patronen te herkennen die leken op redeneren. Ze konden analogieen maken, code schrijven, wiskundeproblemen oplossen, vertalen tussen talen die ze nauwelijks hadden gezien in hun trainingsdata. Ze konden een vraag beantwoorden die ze nooit eerder hadden gezien, in een context die nooit eerder was voorgekomen.
Ilya Sutskever, een van de oprichters van OpenAI, formuleerde het ooit als een gedachte-experiment: als je een model traint om het volgende woord te voorspellen in een mysteriemoordverhaal, dan is het allerlaatste woord, de onthulling van de moordenaar, in zekere zin het meest voorspelde woord. Maar om dat woord goed te voorspellen moet het model iets begrijpen van menselijke psychologie, van motivatie, van plot, van de manier waarop aanwijzingen door een verhaal worden verweven. In die zin, betoogde Sutskever, is het voorspellen van het volgende woord niet zo simpel als het klinkt. Het vereist iets wat verdacht veel lijkt op begrip.
Dit is het kernraadsel van moderne AI: een systeem dat in wezen "slechts" het volgende woord voorspelt, blijkt in staat tot dingen die verdacht veel lijken op denken. Niet iedereen is het erover eens dat het ook werkelijk denken is. Yann LeCun zou zeggen dat het niet meer is dan geavanceerde patroonherkenning. Anderen, zoals Ilya Sutskever, vermoeden dat er iets dieperliggends aan het ontstaan is. Het debat is niet beslecht en zal misschien nooit worden beslecht. Maar voor het begrijpen van hoe AI jouw werk beinvloedt, is de praktische vraag belangrijker dan de filosofische: wat kan het en wat niet?
De getande grens
In 2023 voerden onderzoekers van Harvard Business School en de Boston Consulting Group een experiment uit dat een van de invloedrijkste studies over AI en werk zou worden.
Het opzet was even simpel als ingenieus. Ze namen 758 consultants van BCG, verdeelden ze in groepen, en lieten hen verschillende taken uitvoeren. Sommige consultants kregen toegang tot GPT-4, het op dat moment meest geavanceerde taalmodel. Anderen moesten het zonder doen. De taken varieerden van het schrijven van strategische analyses tot het oplossen van complexe bedrijfsproblemen.
De resultaten waren fascinerend en tegenstrijdig tegelijk. En dat was precies het punt.
Voor taken die binnen de capaciteiten van AI vielen, presteerden consultants met AI-toegang spectaculair beter. Ze produceerden 12,2 procent meer werk, waren 25,1 procent sneller, en de kwaliteit lag meer dan 40 procent hoger dan die van hun collega's zonder AI. Veertig procent. Dat is niet een marginale verbetering. Dat is het verschil tussen een voldoende en een ruime voldoende.
Maar hier komt de twist. Voor taken die net buiten de capaciteiten van AI vielen, presteerden diezelfde consultants 19 procentpunten slechter dan hun collega's zonder AI. Niet een beetje slechter. Significant slechter. De consultants die de hulp van een machine hadden, leverden slechtere resultaten dan de consultants die het alleen deden.
De onderzoekers noemden dit fenomeen de "getande grens," in het Engels de "jagged frontier." Het beeld is treffend en het is de moeite waard om het je voor te stellen. Denk aan een kaart met een grillige, onvoorspelbare kustlijn. Aan de ene kant van die lijn, het land, is AI indrukwekkend competent. Het kan dingen die je versteld doen staan. Aan de andere kant, de zee, is het onbetrouwbaar. Het produceert output die er overtuigend uitziet maar die fout is. En het lastige, het werkelijk verraderlijke, is dat de lijn niet loopt waar je hem verwacht.
AI kan een overtuigende analyse schrijven van een complex bedrijfsprobleem, compleet met onderbouwing en aanbevelingen, maar struikelt soms over een simpele rekensom. Het kan een genuanceerde brief opstellen in tien talen, met perfect register en culturele gevoeligheid, maar verzint soms een feit dat plausibel klinkt maar volstrekt onjuist is. Het kan code schrijven die feilloos compileert en precies doet wat je wilt, maar begrijpt soms de bedoeling achter de opdracht verkeerd en levert iets op dat technisch correct is maar inhoudelijk naast de roos.
Het gevaarlijkste aspect van de getande grens is niet dat AI fouten maakt. Mensen maken ook fouten. Het gevaarlijkste is dat AI fouten maakt met overtuiging. Een mens die het antwoord niet weet, aarzelt, fronst, zegt "daar moet ik even over nadenken." Een taalmodel dat het antwoord niet weet, produceert een antwoord dat er even zelfverzekerd uitziet als elk ander antwoord. Er is geen signaal, geen waarschuwingslicht, geen verandering in toon die je vertelt dat het model nu aan het gokken is in plaats van aan het "weten."
Dit is waarom de eerste ervaring die mensen hebben met AI zo bedrieglijk kan zijn. Als je toevallig een taak hebt geprobeerd die aan de goede kant van de grens lag, denk je misschien dat AI alles kan. Je bent onder de indruk, je vertelt het je collega's, je integreert het in je werkproces. En alles gaat goed, tot je de grens overschrijdt zonder het te merken.
Als je toevallig een taak hebt geprobeerd die aan de verkeerde kant lag, denk je misschien dat het allemaal hype is. Dat het niet meer is dan een opgewaardeerde zoekmaschine. Je schrijft het af en kijkt niet meer om.
Beide conclusies zijn verkeerd. En beide zijn gevaarlijk.
Ethan Mollick, professor aan de Wharton School van de University of Pennsylvania en een van de scherpste observeerders van hoe AI het werk verandert, vergelijkt het met het beoordelen van het internet op basis van een ervaring met dial-up in 1995. Stel je voor dat je in dat jaar het internet had uitgeprobeerd. Je moest wachten tot de inbelverbinding piepend en krakend tot stand kwam. Het duurde minuten om een enkele webpagina te laden, en de pagina's zelf waren lelijk, moeilijk te navigeren en hadden nauwelijks nuttige inhoud. Je zou volledig gerechtvaardigd zijn geweest in je conclusie dat dit hele internet misschien toch niet zo'n grote verandering zou brengen.
Maar die conclusie zou spectaculair verkeerd zijn geweest.
Mollick formuleerde het als een regel die iedereen die met AI werkt zou moeten onthouden: "Ga ervan uit dat de AI die je vandaag gebruikt de slechtste is die je ooit zult gebruiken." Het is een zin die misschien klinkt als marketing, maar die geworteld is in de werkelijkheid van exponentieel groeien. De modellen worden beter. Niet een beetje beter per jaar, maar kwalitatief anders per generatie. Wat vorig jaar niet kon, kan dit jaar wel. Wat nu niet kan, kan volgend jaar misschien.
Dit betekent dat je oordeel over AI, als dat gebaseerd is op een ervaring van een jaar of langer geleden, waarschijnlijk niet meer klopt. De modellen van begin 2023 zijn niet dezelfde modellen als die van nu. En de modellen van volgend jaar zullen niet dezelfde zijn als die van nu. De getande grens verschuift. Taken die vorig jaar aan de verkeerde kant lagen, liggen dit jaar misschien aan de goede kant. De kust schuift op, en het land wordt groter.
Hoe snel die verschuiving gaat, kun je het best zien aan beelden. In maart 2023 maakte iemand met een vroeg AI-videomodel een filmpje van Will Smith die spaghetti eet. Het werd een van de meest virale AI-video's ooit, maar niet omdat het goed was. Het was grotesk. Smiths gezicht smolt, zijn handen veranderden in rubberen uitsteeksels, de noodles zweefden in hun eigen zwaartekrachtveld. Het werd het symbool van hoe slecht AI-video was: fascinerend als experiment, onbruikbaar in de praktijk. Twee jaar later maakten dezelfde liefhebbers dezelfde video met nieuwere modellen. Het resultaat was nauwelijks van echt te onderscheiden. Will Smith zelf plaatste een parodie op Instagram waarin hij de originele AI-versie imiteerde, het soort grap dat alleen werkt als iedereen nog weet hoe slecht het begon.
Ethan Mollick, de Wharton-professor, had zijn eigen benchmark: een otter die WiFi gebruikt in een vliegtuig. Hij was op een vlucht met zijn tienerdochter, otters waren haar lievelingsdieren, en het was het eerste wat hij intypte toen hij een beeldgenerator uitprobeerde. Sindsdien maakte hij dezelfde afbeelding met elk nieuw model. In 2021 produceerde VQGAN+CLIP onherkenbare vlekken. Begin 2022 leverde een vroeg Midjourney gesmolten bont op. In maart 2023 produceerde Midjourney v5 een fotorealistische otter met een raar toetsenbord. In 2025 verklaarde Mollick de beeldtest obsoleet: het was een triviale opgave geworden voor elk modern model. Hij schakelde over op video. Met Google's Veo 3 typte hij: een otter in een vliegtuig die WiFi gebruikt op zijn telefoon, de stewardess vraagt of hij iets wil drinken, en de otter knikt. Het werkte. Met geluid.
Mollick documenteerde de hele reis in een blogpost getiteld "The recent history of AI in 32 otters." Het was een kroniek van exponentieel groeien die elke grafiek of statistiek overbodig maakte: je hoefde alleen maar de otters naast elkaar te zetten om te zien wat er was gebeurd.
Maar er zullen altijd taken zijn aan beide kanten. En het vermogen om dat onderscheid te maken, dag in dag uit, in jouw specifieke vakgebied, met jouw specifieke kennis, is iets wat geen AI je kan leren. Het is iets wat jij moet leren.
Om dat concreter te maken, laten we de getande grens bekijken in drie vakgebieden die miljoenen mensen raken.
In de juridische wereld is AI indrukwekkend goed in het samenvatten van contracten, het doorzoeken van jurisprudentie, en het opstellen van standaardovereenkomsten. Een advocaat die drie uur besteedde aan het doorploegen van een dossier van vijfhonderd pagina's kan hetzelfde nu in twintig minuten doen. Maar dezelfde AI die foutloos een contract samenvat, faalt bij het inschatten hoe een specifieke rechter zal oordelen. Ze kan niet lezen wat er werkelijk gebeurt in een onderhandelingsruimte: de aarzeling van een tegenpartij, de lichaamstaal die zegt dat er meer speelruimte is dan wordt beweerd, de politieke dynamiek tussen partijen die niet in de processtukken staat. De getande grens in het recht loopt precies daar waar kennis van de wet overgaat in kennis van de mensen die de wet toepassen.
In de gezondheidszorg matcht AI radiologen bij het detecteren van bepaalde vormen van kanker in scans. Bij borstkankerscreening, het meest onderzochte toepassingsgebied, presteert AI in gecontroleerde studies vergelijkbaar met ervaren radiologen. Maar een diagnose is meer dan een scan. Een huisarts die een patient kent, die weet dat deze persoon stress heeft door een scheiding, dat ze slecht slaapt, dat haar moeder dezelfde symptomen had. Die huisarts combineert informatie die niet in een dataset zit. AI ziet het beeld. De arts ziet de mens achter het beeld. De getande grens in de zorg loopt precies daar waar patroonherkenning in data overgaat in het begrijpen van een individueel mensenleven.
In creatief werk genereert AI honderden varianten van een marketingtekst in de tijd die een copywriter nodig heeft voor drie. Maar de variant die werkelijk resoneert, die inspeelt op een cultureel moment, die de juiste toon treft voor een specifiek publiek op een specifiek platform, vereist iets wat niet in de trainingsdata zit: een levend begrip van wat mensen nu bezighoudt, van wat grappig is en wat gevoelig ligt, van welk woord precies de juiste snaar raakt. De getande grens in creatief werk loopt daar waar variatie overgaat in originaliteit, en waar patronen uit het verleden niet meer volstaan om het heden te raken.
Het patroon is in elk vakgebied hetzelfde. AI is sterk waar kennis expliciet, gestructureerd en patroonmatig is. AI is zwak waar kennis impliciet, contextueel en menselijk is. De lezer die wil weten waar de grens in zijn eigen werk loopt, kan beginnen met die vraag: hoeveel van wat ik doe is gebaseerd op expliciete kennis die in tekst is vast te leggen, en hoeveel op impliciete kennis die ik heb opgebouwd door jaren van ervaring met mensen, situaties en context?
De AI van nu is niet de AI van toen
Er is een misverstand dat zo wijdverbreid is dat het apart benoemd moet worden, want het kleurt hoe miljoenen mensen over AI denken en het leidt tot verkeerde conclusies.
Veel mensen beoordelen AI nog op basis van hun eerste ervaring met ChatGPT. Misschien hebben ze in 2023 een vraag gesteld en een middelmatig antwoord gekregen. Misschien hallucineerde het model, gaf het feitelijk onjuiste informatie, of produceerde het een tekst die vlak en generiek aanvoelde. Die ervaring bleef hangen, en op basis daarvan concludeerden ze: AI voegt voor mij weinig toe.
Die conclusie was op dat moment misschien gerechtvaardigd. Maar ze is inmiddels achterhaald.
De modellen van begin 2023 zijn fundamenteel andere systemen dan de modellen van nu. Het is niet dezelfde software met een paar verbeteringen. Het verschil is vergelijkbaar met dat tussen een eerste generatie smartphone en de telefoon die je nu in je zak hebt: technisch dezelfde categorie, praktisch een ander apparaat. De modellen van nu kunnen redeneren in stappen, hun eigen werk controleren, honderdduizenden woorden aan context verwerken, en taken uitvoeren die de modellen van twee jaar geleden niet eens begrepen.
Maar er is nog iets dat veel mensen niet beseffen, en het is misschien wel het belangrijkste inzicht voor iedereen die AI effectief wil gebruiken: de kwaliteit van wat je eruit krijgt hangt in enorme mate af van wat je erin stopt. Het oude programmeursprincipe geldt hier onverkort: garbage in, garbage out. Als je een taalmodel een vage, contextloze vraag stelt, krijg je een vaag, contextloos antwoord. Als je het een nauwkeurige vraag stelt, met relevante achtergrondinformatie, met een helder geformuleerd doel en een beschrijving van je situatie, krijg je een antwoord dat je versteld kan doen staan.
Het verschil is niet subtiel. Het is het verschil tussen een AI vragen "schrijf een e-mail" en een AI vertellen "ik ben projectmanager bij een ingenieursbureau, ik moet een opdrachtgever laten weten dat we drie weken vertraging hebben door een leveranciersprobleem, de relatie is goed maar de opdrachtgever hecht aan planning, de toon moet professioneel maar menselijk zijn." Het eerste levert een generieke tekst op. Het tweede levert iets op dat je met minimale aanpassing kunt versturen.
De mensen die AI afdoen als "niet zo indrukwekkend" gebruiken het bijna altijd als een zoekmachine: ze typen een korte vraag en verwachten een perfect antwoord. Maar AI is geen zoekmachine. Het is een gesprekspartner. Hoe meer context je geeft, hoe beter het resultaat. Hoe specifieker je bent over wat je wilt, hoe bruikbaarder de output. Hoe meer je er een dialoog van maakt, hoe waardevoller de uitkomst.
Dit is geen excuus voor de beperkingen van AI. Hallucinaties komen nog steeds voor, al zijn ze veel zeldzamer dan twee jaar geleden. De getande grens bestaat. Maar het betekent wel dat veel mensen de technologie afschrijven op basis van een ervaring die meer zegt over hoe zij het gebruikten dan over wat de technologie kan.
Het geheim van de goede vraag
Het verschil tussen een nutteloos en een nuttig antwoord van AI zit bijna nooit in het model. Het zit in de vraag. Niet in magische formules of geheime trucs, maar in drie principes die verrassend eenvoudig zijn maar die de meeste mensen niet toepassen.
Het eerste principe is context. Een AI die niets weet over jouw situatie, geeft je een antwoord voor iedereen, en dus voor niemand. Vergelijk "geef me tips voor mijn presentatie" met "ik geef volgende week een presentatie aan de raad van bestuur over waarom we moeten investeren in een nieuw CRM-systeem. Het publiek is sceptisch over IT-investeringen vanwege een mislukt project vorig jaar. Ik heb vijftien minuten. Wat zijn de drie dingen die ik absoluut moet adresseren?" Het eerste levert een lijstje clichés op. Het tweede levert iets op waar je mee kunt werken. Het verschil is niet dat de AI slimmer is geworden. Het verschil is dat jij slimmer hebt gevraagd.
Het tweede principe is iteratie. De meeste mensen stellen één vraag, krijgen één antwoord, en stoppen. Maar de echte waarde zit in het gesprek dat volgt. "Dat is een goed punt over de kosten, maar de RvB zal vragen naar de terugverdientijd. Kun je me helpen die te berekenen?" En daarna: "De toon is te technisch. Hoe zou ik dit uitleggen aan iemand die geen IT-achtergrond heeft?" Elke vervolgvraag verfijnt het resultaat. Na vijf slagen heen en weer heb je iets dat je in je eentje een uur had gekost, en het is waarschijnlijk beter, omdat de AI je heeft gedwongen om vragen te stellen die je anders niet had gesteld.
Het derde principe is het verschil tussen delegeren en samenwerken. "Schrijf mijn businessplan" is delegeren, en het resultaat is navenant: generiek, oppervlakkig, onpersoonlijk. "Help me nadenken over de zwakke plekken in mijn businessplan" is samenwerken, en het resultaat is fundamenteel anders. Je houdt de regie. Je eigen ideeën, je eigen ervaring, je eigen oordeel blijven het fundament. AI helpt je dat fundament te testen, te versterken, te verfijnen. Het verschil klinkt klein maar het is het verschil tussen een AI die voor je denkt en een AI die je helpt beter te denken. Alleen het tweede is duurzaam waardevol.
Niet alleen woorden
Het zou een onvolledig beeld geven om alleen over taalmodellen te praten, want AI is niet beperkt tot tekst. In 2022, rond dezelfde tijd dat ChatGPT de wereld veroverde, lanceerde OpenAI ook DALL-E 2, een systeem dat beelden kon genereren op basis van een tekstbeschrijving. Type "een astronaut die op een paard rijdt op de maan, in de stijl van een olieverfschilderij" en het systeem produceerde precies dat. Midjourney, Stable Diffusion en later ook Adobe Firefly volgden.
De beeldgeneratie maakte een even snelle ontwikkeling door als de taalmodellen. De eerste beelden waren fascinerend maar duidelijk kunstmatig. Handen hadden te veel vingers, tekst was onleesbaar, gezichten vertoonden subtiele verstoringen. Maar met elke generatie verbeterden de modellen. Tegen 2025 waren de beelden in veel gevallen niet meer te onderscheiden van echte foto's.
Die ononderscheidbaarheid bracht een donkere kant met zich mee die niet genegeerd kan worden. Deepfakes, synthetische video's en beelden van echte mensen, werden steeds makkelijker te maken en steeds moeilijker te herkennen. Politici werden in nep-video's woorden in de mond gelegd die ze nooit hadden gezegd. Beroemdheden vonden hun gezichten terug in pornografisch materiaal dat ze nooit hadden gemaakt. Gewone mensen ontdekten dat apps bestonden die met een enkele foto van hun gezicht realistische naaktbeelden konden genereren.
Het was een van de meest verontrustende toepassingen van generatieve AI, en een die raakt aan fundamentele vragen over privacy, toestemming en de betrouwbaarheid van visueel bewijs. In een wereld waarin elke foto en elke video vals kan zijn, wat betekent "zien is geloven" dan nog? Hoe bewijs je dat iets echt is als alles nep kan zijn? En hoe bescherm je mensen, vooral vrouwen en meisjes, tegen een technologie die hun beeld kan misbruiken zonder hun toestemming?
Zelfs beroemdheden waren niet veilig. In mei 2024 lanceerde OpenAI een stemassistent voor ChatGPT met een warme, flirterige stem genaamd "Sky." Luisteraars merkten onmiddellijk de gelijkenis op met Scarlett Johansson, die in de film Her uit 2013 de stem had ingesproken van een AI-assistent. Sam Altman plaatste op sociale media een enkel woord: "her." Het leek een knipoog. Maar Johansson was niet geamuseerd. Ze onthulde dat Altman haar twee keer had benaderd met het verzoek om haar stem te lenen aan ChatGPT, en dat ze twee keer had geweigerd. Toen ze de demo hoorde, was ze naar eigen zeggen "geschokt en woedend." OpenAI trok de stem in, maar de schade was gedaan. Het incident illustreerde een fundamentele spanning: in een wereld waarin stemmen en gezichten kunnen worden nagebootst, wie beschermt dan het recht op je eigen identiteit?
Hoe gevaarlijk deepfakes al waren geworden, bleek in januari 2024 bij het Britse ingenieursbureau Arup, het bedrijf achter het Sydney Opera House. Een medewerker van de financiele afdeling in Hongkong ontving een e-mail van iemand die beweerde de CFO van het bedrijf te zijn, met het verzoek om geheime overboekingen te doen. De medewerker was wantrouwig en vermoedde phishing. Maar toen hij werd uitgenodigd voor een videogesprek met de CFO en meerdere collega's, verdween zijn twijfel. Hij voerde vijftien overboekingen uit, in totaal 25,6 miljoen dollar, naar vijf bankrekeningen. Elk persoon op dat videogesprek was een door AI gegenereerde deepfake. De criminelen hadden overtuigende real-time video- en audioclones gecreeerd op basis van publiek beschikbaar beeldmateriaal van conferenties en bedrijfspresentaties. De fraude werd pas ontdekt toen de medewerker later contact opnam met het werkelijke hoofdkantoor om de "geheime transactie" te bespreken. Het geld is nooit teruggevonden.
In Nederland liet Alexander Klopping, techondernemer en vaste AI-gast bij Eva Jinek, in november 2024 zien hoe dichtbij deze technologie al was. Hij liep met een slimme bril met gezichtsherkenning door de Amsterdamse Zuidas. Na slechts een paar seconden casual gesprek met voorbijgangers, een vraag over het openbaar vervoer, identificeerde de AI hun gezicht en haalde automatisch hun naam, werkgever, LinkedIn-profiel en opleidingsgeschiedenis op. Klopping zei dat hij mensen "de stuipen op het lijf wilde jagen" over hoe toegankelijk de technologie al was. De video ging wereldwijd viraal en werd opgepikt door media van India tot de Verenigde Staten.
Overheden worstelden met deze vragen. De EU AI Act classificeerde bepaalde deepfake-toepassingen als onaanvaardbaar risico. Maar de technologie bewoog sneller dan de wetgeving. De tools om deepfakes te maken werden steeds toegankelijker, terwijl de tools om ze te detecteren achterblijven.
En er was nog een risico dat in de eerste maanden van de ChatGPT-euforie nauwelijks aandacht kreeg maar dat voor bedrijven misschien wel het meest urgent was: privacy. Alles wat je in een taalmodel typt, kan worden opgeslagen en gebruikt om toekomstige modellen te trainen. En in de eerste maanden na de lancering van ChatGPT deden veel mensen precies wat ze niet hadden moeten doen.
Bij Samsung ging het spectaculair mis. Slechts weken nadat de halfgeleiderdivisie het gebruik van ChatGPT had toegestaan, lekten medewerkers op minstens drie verschillende momenten vertrouwelijke informatie. Een ingenieur plakte broncode van een foutieve halfgeleiderdatabase in ChatGPT met het verzoek om de fout te vinden. Een ander vroeg ChatGPT om geheime testprocessen voor chipproductie te optimaliseren. Een derde voerde de notulen van een interne vergadering in. Het probleem was niet alleen dat die data op de servers van OpenAI belandde. Het probleem was dat ChatGPT in die periode standaard alle invoer van gebruikers kon gebruiken om zijn modellen te verbeteren. Samsungs broncode, hun testprocessen, hun interne besprekingen werden potentieel onderdeel van de trainingsdata. In theorie kon die informatie vervolgens in de antwoorden aan andere gebruikers opduiken. Samsung verbood het gebruik van alle generatieve AI-tools door medewerkers en waarschuwde dat overtreders ontslagen konden worden. Het was een patroon dat zich wereldwijd herhaalde. JPMorgan Chase, Goldman Sachs, Apple, Amazon en Bank of America verboden of beperkten allemaal het gebruik van ChatGPT. De angst was overal dezelfde: bedrijfsgeheimen die via een tekstvak de beveiligde omgeving verlieten en opgingen in een systeem waar niemand controle over had.
Italië ging nog een stap verder en verbood ChatGPT helemaal, als eerste land ter wereld. De Italiaanse privacytoezichthouder oordeelde in maart 2023 dat OpenAI de Europese privacywetgeving schond door persoonlijke data te verwerken zonder wettelijke grondslag. Het verbod duurde een maand, tot OpenAI aanpassingen had doorgevoerd, maar het was een signaal dat de Europese aanpak van AI fundamenteel anders zou zijn dan de Amerikaanse. Eind 2024 legde Italië OpenAI alsnog een boete op van vijftien miljoen euro.
Tegelijkertijd openden beeldmodellen ook enorme creatieve mogelijkheden. Kleine bedrijven die zich geen fotograaf of grafisch ontwerper konden veroorloven, konden nu professioneel ogende beelden genereren. Filmmakers konden concepten visualiseren voordat ze een camera oppakten. Architecten konden ideeen verbeelden in seconden. De technologie was, zoals zo vaak, tegelijkertijd een zegen en een vloek.
En het stopte niet bij beelden. Video-generatie, muziekcompositie, 3D-modellering: overal waar creativiteit traditioneel menselijk domein was, drongen AI-systemen binnen. OpenAI's Sora kon korte video's genereren uit tekstbeschrijvingen. Google's MusicLM kon muziek componeren in elke stijl. De grens tussen wat machines konden maken en wat alleen mensen konden maken, verschoof met elke maand.
Wat AI niet kan
Het zou misleidend zijn om alleen over de mogelijkheden te praten zonder eerlijk te zijn over de beperkingen. En die beperkingen zijn niet klein. Ze zijn fundamenteel. En sommige zullen niet worden opgelost door grotere modellen of meer data.
AI begrijpt niet. Het herkent patronen, en dat is iets fundamenteel anders. Een arts die een patient onderzoekt, begrijpt wat pijn is. Ze heeft misschien zelf pijn gehad. Ze kan de angst in iemands ogen lezen, de spanning in iemands schouders zien, de aarzeling in iemands stem horen. Ze kan inschatten wanneer een patient iets verzwijgt, wanneer de werkelijke klacht niet de klacht is waarmee iemand binnenkomt. Een AI kan symptomen analyseren en een diagnose voorstellen, soms zelfs een betere diagnose dan de arts, maar het begrijpt niet wat het betekent om ziek te zijn. Het heeft geen ervaring van de wereld om op terug te vallen. Het heeft tekst gelezen over de wereld, onvoorstelbaar veel tekst, maar het heeft nooit geroken, geproefd, gestruikeld, gelachen of gehuild. Het weet dat ijs koud is, maar het heeft nooit kou gevoeld.
Dat klinkt misschien als een filosofisch punt zonder praktische consequenties, maar dat is het niet. Het betekent dat AI bepaalde vormen van kennis mist die voor mensen zo vanzelfsprekend zijn dat we ze niet eens als kennis beschouwen. Een ervaren projectmanager "voelt" wanneer een team in de problemen zit, lang voordat de statusrapporten dat laten zien. Een goede verkoper "hoort" wanneer een klant twijfelt, zelfs als die klant instemmend knikt. Een leraar "ziet" wanneer een leerling de draad kwijtraakt, zelfs als die leerling niets zegt. Dit soort kennis, geworteld in jaren van menselijke ervaring en menselijk contact, kan AI niet repliceren.
AI hallucineert. Het woord "hallucineren" werd door Van Dale gekozen tot Woord van het Jaar 2025, in zijn nieuwe betekenis: het produceren van onjuiste informatie door een AI-systeem. Het is veelzeggend dat een technisch AI-begrip zo snel zijn weg vond naar de alledaagse taal dat het de meest kenmerkende woordkeuze van het jaar werd.
In de praktijk betekent het dit: een taalmodel zegt met grote overtuiging iets dat niet klopt. Het bedenkt feiten, citeert bronnen die niet bestaan, beschrijft onderzoeken die nooit zijn uitgevoerd, noemt namen van mensen die het verzint. En het doet dit niet uit kwade wil of zelfs uit nalatigheid. Het doet dit omdat het geoptimaliseerd is om plausibele tekst te produceren, en soms is een verzonnen feit plausibeler dan het eerlijke antwoord "ik weet het niet."
Maar het is belangrijk om eerlijk te zijn over de richting: het probleem wordt snel kleiner. De hallucinatiepercentages zijn gedaald van bijna 22 procent in 2021 naar minder dan 1 procent voor de beste modellen in 2025, een verbetering van meer dan 96 procent. De nieuwste generatie reasoning-modellen, modellen die eerst nadenken voordat ze antwoorden, scoren bijzonder goed. Ze zijn getraind om hun eigen redenering te controleren, om onzekerheden te signaleren, en om eerlijk te zeggen wanneer ze iets niet weten. Het verschil met de eerste ChatGPT-versie uit 2022, die vrolijk complete bronverwijzingen verzon, is enorm.
Toch is het probleem niet verdwenen, en het is belangrijk om te begrijpen waarom. Minder dan 1 procent klinkt verwaarloosbaar, maar als je AI tien keer per dag gebruikt, is dat elke week een potentieel foute output die er overtuigend uitziet. En de aard van hallucinaties maakt ze bijzonder verraderlijk: ze komen juist voor bij de vragen waar je het minst verwacht, bij obscure feiten, bij randgevallen, bij onderwerpen waar de trainingsdata schaars is. De modellen zijn niet meer de onbetrouwbare praatjesmakers van 2023. Maar ze zijn ook nog geen feilloze referentiebronnen. De waarheid ligt ergens in het midden, en precies dat midden is lastig te navigeren.
Er zijn voorbeelden van hallucinaties met reele consequenties die illustreren waarom waakzaamheid nodig blijft, ook met betere modellen. Een advocaat in New York gebruikte in 2023 ChatGPT om juridische precedenten te vinden voor een zaak en diende een document in bij de rechtbank dat verwees naar zes zaken die nooit hadden bestaan. De rechter was niet geamuseerd. De advocaat kreeg een boete en werd publiekelijk berispt. Het incident dateert uit de tijd dat hallucinaties nog veel vaker voorkwamen, maar het principe blijft: als je niet controleert, neem je een risico.
In Canada verloor Air Canada een rechtszaak die bijna komisch was als hij niet zo veelzeggend was geweest. Jake Moffatt had na het overlijden van een familielid de AI-chatbot van Air Canada gevraagd over rouwkortingen. De chatbot vertelde hem dat hij een ticket kon kopen en de korting achteraf kon aanvragen. Dat klopte niet. Het echte beleid vereiste dat de korting voor aankoop werd aangevraagd. Toen Moffatt zijn geld terugvroeg, deed Air Canada iets buitengewoons: het betoogde dat de chatbot een "afzonderlijke juridische entiteit" was die verantwoordelijk was voor zijn eigen acties. De rechter noemde dit een "opmerkelijke bewering" en oordeelde dat een bedrijf verantwoordelijk is voor alle informatie op zijn website, of die nu van een webpagina komt of van een chatbot. Het was de eerste rechtszaak wereldwijd over fout advies van een AI-chatbot, en het vestigde een principe dat voor elk bedrijf met een AI-assistent relevant is: je kunt je aansprakelijkheid niet uitbesteden aan je algoritme.
De vraag die dit oproept is praktisch: als je niet kunt zien wanneer AI hallucineert, hoe bescherm je jezelf dan? Er is geen waterdichte methode, maar er zijn strategieën die het risico dramatisch verkleinen.
De eerste en meest effectieve: vraag de AI om zijn bronnen te noemen. Als het claimt dat er een onderzoek bestaat, vraag om de titel, de auteurs, het jaar. En controleer dan of dat onderzoek daadwerkelijk bestaat. In een verrassend aantal gevallen zal blijken dat de bron verzonnen is. Dat is pijnlijk, maar het is beter om het nu te ontdekken dan nadat je het in een rapport of presentatie hebt verwerkt.
De tweede: stel dezelfde vraag op een andere manier, of in een nieuw gesprek. Als de antwoorden consistent zijn, is dat een goed teken. Als ze van elkaar afwijken, is dat een rode vlag die verdere verificatie verdient. Inconsistentie is het dichtstbijzijnde dat je hebt bij een waarschuwingslicht.
De derde: wees het meest alert wanneer AI het meest zelfverzekerd klinkt over iets dat buiten jouw expertise valt. Dat is precies de situatie waarin hallucinaties het gevaarlijkst zijn. Als je verstand hebt van het onderwerp, herken je een fout. Als je er geen verstand van hebt, klinkt alles even overtuigend. In die situaties is de vuistregel simpel: verifieer met een onafhankelijke bron voordat je de informatie gebruikt.
De vierde, en misschien de minst intuïtieve: vraag de AI om zijn eigen antwoord te bekritiseren. "Wat zou er mis kunnen zijn met wat je zojuist hebt gezegd? Waar ben je het minst zeker van?" Goede modellen zijn verrassend eerlijk als je ze expliciet vraagt om hun eigen zwakheden te identificeren. Het is geen garantie, maar het vangt een aanzienlijk deel van de fouten.
Denk terug aan de Air Canada-zaak. Als Jake Moffatt de chatbot had gevraagd "Weet je zeker dat ik de korting achteraf kan aanvragen? Waar staat dat precies?" had het verhaal anders kunnen aflopen. Niet omdat de chatbot beter zou hebben geantwoord, maar omdat de vraag hem had gedwongen om een bron te noemen die controleerbaar was, of om te onthullen dat die bron niet bestond.
AI is een spiegel van zijn trainingsdata. Als die data vooroordelen bevat, en dat doet alle data die door mensen is geproduceerd, dan weerspiegelt het model die vooroordelen. Soms versterkt het ze zelfs, omdat patronen die in de data subtiel aanwezig zijn, door het model worden geamplificeerd tot expliciete neigingen. Dit heeft reele consequenties voor hoe AI wordt ingezet in werving, in kredietbeslissingen, in justitieel beleid, in medische diagnoses.
Er is een onderscheid dat in de meeste gesprekken over AI verloren gaat, en dat cruciaal is voor het begrijpen van deze risico's: het verschil tussen generatieve AI en voorspellende AI. Generatieve AI is wat de meeste mensen bedoelen als ze het over AI hebben. Het zijn de taalmodellen, de beeldgeneratoren, de systemen die nieuwe content creeren. Maar voorspellende AI is iets heel anders. Het zijn de systemen die al jarenlang stilletjes worden ingezet in bedrijven en overheden: algoritmen die voorspellen wie een lening niet zal terugbetalen, wie een baan verdient, wie een hoger risico op criminaliteit heeft, hoe lang een ziekte zal duren. Veel van deze systemen zijn, ondanks hun brede inzet, wetenschappelijk gezien problematisch. Ze weerspiegelen vaak de vooroordelen in hun trainingsdata en hun voorspellingen zijn lang niet altijd betrouwbaarder dan die van een ervaren mens. Als je nadenkt over hoe AI jouw werk raakt, is het cruciaal om te weten welk type AI in het spel is.
Dit alles zijn geen kleine kanttekeningen. Het zijn eigenschappen van de technologie die snel verbeteren maar nog niet zijn verdwenen. En ze roepen een vraag op die misschien de belangrijkste is van dit hele boek: als AI steeds krachtiger wordt maar nog niet onfeilbaar, hoe ga je er dan mee om?
Misschien is de nuttigste manier om over AI na te denken niet als een vervanging van menselijk denken, maar als een versterker ervan. Zoals een telescoop je ogen niet vervangt maar je in staat stelt dingen te zien die je met het blote oog niet zou kunnen zien. Of zoals een hamer je niet vervangt als timmerman maar je in staat stelt dingen te bouwen die je met je blote handen niet zou kunnen bouwen.
Het verschil met eerdere werktuigen is dat deze hamer praat. Deze hamer kan je suggesties doen. Deze hamer kan, als je niet oplet, je ervan overtuigen dat een muur recht staat terwijl hij scheef is. En deze hamer wordt elke dag een beetje beter in het overtuigen.
Daarom is de vaardigheid die het meest waardevol wordt niet de vaardigheid om AI te gebruiken. Die leert iedereen. De vaardigheid die ertoe doet is het vermogen om te beoordelen wanneer AI gelijk heeft en wanneer niet. Om te weten wanneer je de output kunt vertrouwen en wanneer je eigen expertise onmisbaar is. Om de getande grens te kennen in jouw vakgebied en bij te houden hoe die grens verschuift.
Het is een vaardigheid die alleen komt met oefening. Met het elke dag een beetje gebruiken, evalueren, bijsturen. Met het opbouwen van een intuïtie die je vertelt wanneer iets klopt en wanneer iets te mooi is om waar te zijn.
Het is, in zekere zin, de oudste menselijke vaardigheid: oordeelsvermogen. Het vermogen om te wegen, te twijfelen, te beslissen. Alleen is het onderwerp van dat oordeel nu niet langer alleen de wereld om je heen, maar ook de machine die beweert die wereld voor je te begrijpen.