masoko

Hoofdstuk 1 · De Aankomst

De dag dat alles veranderde

14 min leestijd

Op 30 november 2022, een woensdag, zette een klein team bij OpenAI een nieuwe chatbot online. Er was geen reclamecampagne. Geen persevenement. Geen groot onthullingsmoment op een podium met dramatische verlichting. Mira Murati, destijds Chief Technology Officer, stuurde een tweet. Sam Altman plaatste een kort bericht op sociale media. De toon was bewust bescheiden: dit was een "research preview," een manier om feedback te verzamelen.

Niemand bij OpenAI had verwacht wat er zou volgen.

Binnen vijf dagen had ChatGPT een miljoen gebruikers. Binnen twee maanden waren het er honderd miljoen. Geen enkele applicatie in de geschiedenis van het internet was zo snel gegroeid. Instagram had er twee en een half jaar over gedaan om die grens te bereiken. TikTok negen maanden. Spotify vijf jaar. ChatGPT deed het in twee maanden.

De reden was niet een slimme marketingstrategie. De reden was dat mensen het aan elkaar vertelden. "Je moet dit proberen," zeiden ze tegen collega's bij het koffieapparaat, tegen vrienden op verjaardagen, tegen familieleden tijdens het avondeten. En als je het dan probeerde, als je voor het eerst een vraag typte in dat eenvoudige tekstvak en een antwoord terugkreeg dat klonk alsof er een belezen, geduldige, oneindig beschikbare gesprekspartner aan de andere kant zat, begreep je waarom ze zo enthousiast waren.

Want voor het eerst in je leven kon je een gesprek voeren met een machine. Niet het stijve, geforceerde soort gesprek dat je kende van klantenservice-chatbots, waarin je de juiste zoekwoorden moest raden om een voorgekauwde reactie los te krijgen. Een echt gesprek. Je kon vragen stellen over quantumfysica en een helder antwoord krijgen. Je kon het vragen om een verhaal te schrijven in de stijl van Gabriel Garcia Marquez. Je kon het vragen om je code te debuggen, een lastige e-mail te formuleren, een juridisch contract samen te vatten, een verjaardagsspeech te schrijven voor je moeder.

Sommige mensen waren gefascineerd. Anderen waren verontrust. Veel mensen waren allebei tegelijk.

Het voelde alsof er iets fundamenteels was verschoven. Alsof er een deur was opengegaan waarvan je niet wist dat hij bestond, en nu je erdoor had gekeken kon je hem niet meer sluiten.

De jaren ervoor

Maar ChatGPT kwam niet uit het niets. Om te begrijpen waarom die novemberdag in 2022 zo bijzonder was, moeten we terug in de tijd. Veel verder terug dan je misschien zou verwachten. Want de droom van een denkende machine is ouder dan de computer zelf.

De Mechanical Turk: de allereerste AI-truc

In 1770, op een voorjaarsavond in het keizerlijk paleis van Wenen, onthulde de Hongaarse uitvinder Wolfgang von Kempelen zijn meesterwerk aan keizerin Maria Theresia en haar hof. Het was een houten kast, ongeveer zo groot als een bureau, met een schaakbord op het blad en een levensgrote pop erachter, gekleed in Ottomaanse kledij, met een tulband, een pijp, en handen die de stukken konden verplaatsen. Von Kempelen opende de deurtjes van de kast, liet het publiek het binnenwerk van tandwielen en mechaniek bekijken, en nodigde een vrijwilliger uit om een partij te spelen.

De machine won. En bleef winnen. De Mechanical Turk toerde door Europa en Amerika en versloeg bijna iedereen die het uitdaagde, inclusief Napoleon Bonaparte en Benjamin Franklin. Het was een sensatie die tientallen jaren duurde. Mensen schreven boeken over de vraag hoe de machine werkte. Filosofen debatteerden over de mogelijkheid van mechanisch denken.

De waarheid was prozaischer. In de kast, verborgen achter een ingenieus systeem van verschuifbare panelen, zat een kleine, zeer bekwame menselijke schaakspeler. De Mechanical Turk was geen kunstmatige intelligentie. Het was een briljante illusie, het eerste stuk theater over denkende machines.

Maar de droom die het vertegenwoordigde, een machine die kan denken als een mens, zou nooit meer verdwijnen. Het duurde alleen nog bijna twee eeuwen voordat iemand er serieus aan begon te werken.

Alan Turing: de vader van de vraag

In de zomer van 1950, in een bescheiden kantoor aan de University of Manchester, publiceerde een wiskundige met een ongelukkig leven en een briljant verstand een paper die het hele vakgebied zou vormgeven. Alan Turing was toen 38 jaar oud. Hij had tijdens de Tweede Wereldoorlog bij Bletchley Park gewerkt aan het kraken van de Enigma-code, werk dat volgens historici de oorlog met jaren had verkort en miljoenen levens had gered, maar dat decennialang geheim zou blijven.

Turings paper stelde een ogenschijnlijk simpele vraag: Can machines think? In plaats van die vraag direct te beantwoorden, deed hij iets eleganters. Hij stelde een test voor. Stel dat je via een tekstgesprek communiceert met iemand aan de andere kant. Je weet niet of het een mens is of een machine. Als je het verschil niet kunt merken, zei Turing, dan mag je de machine "intelligent" noemen.

Het briljante van de Turingtest was dat hij het onbeantwoordbare omzeilde. Turing definieerde niet wat intelligentie is. Hij definieerde wanneer het er niet meer toe doet. Als het eruitziet als denken, klinkt als denken, en handelt als denken, wat maakt het dan uit of het "echt" denken is? Het was een vraag die in 2022, toen miljoenen mensen voor het eerst chatten met ChatGPT, plotseling bijzonder actueel zou worden.

Turing zou in 2024 zijn 112e verjaardag hebben gevierd. Hij overleed in 1954, op 41-jarige leeftijd, lang voordat zijn test ook maar in de buurt van gehaald werd. Maar zijn vraag dreef het hele vakgebied voort.

De eerste AI-winter en de lange weg

Na Turings provocatie brak er een golf van optimisme uit. In de zomer van 1956 kwamen tien jonge onderzoekers bijeen op Dartmouth College, een universiteit in de bossen van New Hampshire, voor een conferentie van acht weken. John McCarthy, een wiskundige van 29, had de uitnodiging geschreven en daarin voor het eerst de term "artificial intelligence" gebruikt. De sfeer was euforisch. De deelnemers waren ervan overtuigd dat ze aan de vooravond stonden van een doorbraak. In het voorstel voor de conferentie schreven ze dat "elk aspect van leren of welke andere eigenschap van intelligentie dan ook in principe zo nauwkeurig kan worden beschreven dat een machine het kan simuleren." De verwachting was dat machines binnen een generatie menselijk niveau zouden bereiken.

Dat gebeurde niet. De eerste decennia van AI-onderzoek werden gekenmerkt door grote beloftes en teleurstellende resultaten. De programma's die onderzoekers bouwden konden simpele logische puzzels oplossen en eenvoudige zinnen ontleden, maar ze faalden jammerlijk bij alles wat met taal, beeld of gezond verstand te maken had. Een programma dat kon schaken op het niveau van een amateur, kon niet het verschil zien tussen een hond en een kat. Een systeem dat wiskundige bewijzen kon controleren, kon geen alledaags gesprek voeren. Overheden, die aanvankelijk miljoenen hadden geinvesteerd, trokken hun financiering terug. Onderzoekers verloren hun baan. Laboratoria sloten hun deuren. Dit werd de eerste "AI-winter" genoemd, een periode van desillusie die tot diep in de jaren tachtig duurde en die een hele generatie wetenschappers leerde dat het woord "intelligentie" beter vermeden kon worden als je een serieuze carrière wilde opbouwen.

Deep Blue: de machine die een wereldkampioen versloeg

Op 11 mei 1997, in een zaal op de 35e verdieping van een wolkenkrabber in Manhattan, keek Garry Kasparov naar het schaakbord en besefte dat hij ging verliezen. Niet van een mens, maar van een machine. IBM's supercomputer Deep Blue, een kast van anderhalf ton met 256 gespecialiseerde schaakprocessoren, stond op het punt om de regerend wereldkampioen te verslaan in een officieel duel van zes partijen. Het was wereldnieuws. De voorpagina van elke krant. De machine had de mens verslagen, althans in schaak.

Kasparov was na afloop woedend. Hij beschuldigde IBM ervan dat er menselijke hulp in het spel was geweest. Hij eiste een rematch. IBM weigerde en ontmantelde Deep Blue. De banden met de partijgegevens verdwenen in een kluis. Het was een overwinning die meer vragen opriep dan ze beantwoordde.

Achteraf gezien was Deep Blue een fascinerende misleiding, in zekere zin de Mechanical Turk van de twintigste eeuw. De computer was niet "intelligent" in welke betekenisvolle zin dan ook. Hij kon 200 miljoen schaakposities per seconde evalueren, maar kon geen gesprek voeren, geen grap begrijpen, geen kop koffie inschenken. Deep Blue was razendsnelle brute kracht zonder begrip. Toen het duel voorbij was, wist de machine niet dat hij had gewonnen.

Maar net als de Mechanical Turk twee eeuwen eerder verschoof Deep Blue wat mensen voor mogelijk hielden. Als een machine de beste schaker ter wereld kon verslaan, wat was er dan nog meer mogelijk?

De doorbraak die niemand zag aankomen

De technologie die plotseling in miljoenen huiskamers verscheen, was het resultaat van decennia werk door mensen die jarenlang werden genegeerd, gefinancierd door bedrijven die niet wisten waar ze mee bezig waren, en mogelijk gemaakt door een paper die bijna niet werd geschreven. We beginnen in Toronto, in 2012.

Geoffrey Hinton was op dat moment 65 jaar oud. Hij had het grootste deel van zijn carriere gewijd aan een idee dat de meeste van zijn collega's als een doodlopende weg beschouwden: neurale netwerken, computersystemen die losjes waren geinspireerd op de werking van het menselijk brein. Het concept was niet nieuw. Al in de jaren vijftig hadden onderzoekers geexperimenteerd met eenvoudige neurale netwerken. Maar ze werkten niet goed genoeg, en tegen de jaren zeventig had de academische wereld ze grotendeels afgeschreven. Het was de echo van de AI-winter: dezelfde cyclus van belofte en teleurstelling, maar nu op een specifieker terrein.

Hinton niet. Decennialang bleef hij werken aan het verbeteren van de wiskundige methoden waarmee deze netwerken konden leren. Het was eenzaam werk. Financiering was schaars. Collega's waren sceptisch. Op conferenties werden papers over neurale netwerken soms niet eens geaccepteerd. Hinton heeft later verteld dat hij in die jaren het gevoel had tegen een muur te praten.

Maar in 2012 bewees hij dat de muur al die tijd aan het afbrokkelen was. Samen met twee van zijn studenten, Alex Krizhevsky en Ilya Sutskever, bouwde hij AlexNet: een neuraal netwerk dat meedeed aan de ImageNet-wedstrijd, een jaarlijkse competitie in beeldherkenning. AlexNet won niet alleen. Het verpulverde de concurrentie. De foutmarge was 15,3 procent, terwijl de tweede plaats op 26,2 procent bleef steken. Het was alsof iemand bij een hardloopwedstrijd twee ronden voorsprong nam.

De academische wereld kantelde van de ene op de andere dag. Onderzoekers die neurale netwerken hadden afgeschreven, keerden hun aandacht ernaar terug. Bedrijven die er geen belang in hadden gehad, begonnen miljarden te investeren. De AI-winter, de lange winter die was begonnen in de jaren zeventig en die het hele veld decennialang had verlamd, was eindelijk voorbij.

Hinton zou in 2024, op 77-jarige leeftijd, de Nobelprijs voor Natuurkunde ontvangen voor dit werk. Het was de bekroning van een halve eeuw volharding. Maar tegen die tijd was Hinton niet meer alleen een gevierd wetenschapper. Hij was ook een van de luidste critici van de technologie die hij zelf had helpen creeren.

Het paper dat alles veranderde

Vijf jaar na AlexNet, in juni 2017, publiceerde een groep van acht onderzoekers bij Google een paper met de bescheiden titel "Attention Is All You Need."

Het verhaal achter dat paper verdient het om verteld te worden, want het illustreert hoe toevallig doorbraken soms zijn.

De onderzoekers werkten aan een hardnekkig probleem in de vertaaltechnologie. De bestaande systemen verwerken tekst woord voor woord, van links naar rechts, als een lezer die een boek letter voor letter doorneemt. Dit was langzaam en inefficient, want de betekenis van een woord hangt vaak af van woorden die veel verderop in de zin staan.

Hun oplossing was de Transformer: een architectuur die het mogelijk maakte om een hele tekst in een keer te verwerken, in plaats van woord voor woord. Het sleutelinzicht was een mechanisme dat ze "attention" noemden, een manier voor het systeem om te leren welke delen van een tekst relevant zijn voor welke andere delen. In plaats van lineair te lezen, kon het model nu overal tegelijk kijken, als iemand die een pagina in zijn geheel overziet in plaats van woord voor woord te ontcijferen.

De naam "Transformer" was bedacht door Jakob Uszkoreit, een van de acht auteurs. Hij vond het gewoon een mooi woord. De titel van het paper, "Attention Is All You Need," was een knipoog naar het Beatles-nummer "All You Need Is Love." Het waren speelse keuzes voor een paper dat de basis zou leggen voor vrijwel alle AI-systemen die daarna kwamen.

Want niemand besefte op dat moment de volle reikwijdte van wat ze hadden gebouwd. Het paper was geschreven als een bijdrage aan de vertaaltechnologie, niet als het fundament voor een nieuwe generatie kunstmatige intelligentie. Maar dat is precies wat het werd. BERT, GPT, Claude, Gemini, Llama: al deze modellen zijn gebouwd op de architectuur die in die ene paper werd beschreven. De Transformer maakte het mogelijk om modellen te bouwen die steeds groter werden, getraind op steeds meer data, en die steeds meer leken te "begrijpen."

Ashish Vaswani en Noam Shazeer, twee van de acht auteurs, verlieten later Google om hun eigen AI-bedrijven op te richten. Ze hadden vanuit de eerste rij gezien hoe krachtig hun uitvinding was, en ze wilden het zelf verder brengen.

Waarom de Transformer werkt: een intuïtie

Om te begrijpen waarom de Transformer zo'n doorbraak was, helpt het om je twee manieren voor te stellen waarop je een detectiveroman kunt lezen.

De eerste manier is hoe oudere AI-modellen werkten: woord voor woord, van links naar rechts, als een lezer die elk woord opslaat en doorschuift naar het volgende. Tegen de tijd dat je op pagina 200 bent, is de aanwijzing op pagina 12 vervaagd. Je weet dat er iets belangrijks stond over een rode sjaal, maar de details zijn wazig. Elke keer dat je een nieuw woord verwerkt, moet je de herinnering aan alle vorige woorden een beetje comprimeren, een beetje vergeten. Dat was het fundamentele probleem van de modellen die vóór de Transformer kwamen: ze hadden een soort vergeetachtigheid ingebouwd.

De Transformer werkt als een detective die de hele roman uitgespreid op een enorme tafel heeft liggen. Elke pagina zichtbaar, tegelijkertijd. En de detective heeft gekleurde draden, het attention-mechanisme, waarmee hij verbindingen legt tussen elk punt in het verhaal en elk ander punt. De rode sjaal op pagina 12 wordt met een draad verbonden aan de verdachte op pagina 87, aan het alibi op pagina 145, aan de ontknoping op pagina 203. Het model hoeft niets te onthouden omdat het alles tegelijk kan zien. Het leert welke verbindingen ertoe doen.

Dit klinkt misschien als een subtiel verschil, maar het veranderde alles. Want het betekende dat Transformers niet alleen beter waren in het verwerken van lange teksten. Ze waren fundamenteel beter in het vinden van patronen. De relatie tussen een vraag in de eerste alinea en het antwoord in de laatste. De subtiele echo van een thema dat door een heel document loopt. De samenhang tussen een contractclausule op pagina drie en een uitzondering op pagina zeventien.

En toen ontdekten onderzoekers iets opmerkelijks: als je een Transformer groter maakte, meer parameters, meer trainingsdata, werd het niet alleen een beetje beter. Het werd voorspelbaar, betrouwbaar beter. Dit fenomeen, dat onderzoekers "scaling laws" zijn gaan noemen, bleek bijna onwrikbaar te zijn. Verdubbel de rekenkracht en de data, en het model wordt beter. Verdubbel het opnieuw, en het wordt weer beter. Er leek, tot op dat moment, geen plafond te zijn.

Het was deze ontdekking die de goudkoorts ontketende die we in het volgende hoofdstuk zullen zien. Want als groter altijd beter betekent, dan wint wie het meeste geld heeft om de grootste modellen te bouwen. En plotseling werd AI niet alleen een wetenschappelijk avontuur, maar een economische race waarbij elk voordeel tientallen miljarden waard kon zijn.

Het schaakspel van Go

Tussendoor was er nog een moment dat de wereld even stilstond, en dat het voor veel mensen voor het eerst concreet maakte dat machines iets konden wat voorheen ondenkbaar was.

In maart 2016, in het Four Seasons Hotel in Seoul, speelde Lee Sedol vijf partijen Go tegen AlphaGo, een systeem gebouwd door DeepMind. Lee Sedol was een van de beste Go-spelers ter wereld, een legende in het spel. Van tevoren had hij rustig verklaard dat hij met 5-0 zou winnen. Hij noemde het ondenkbaar dat een machine hem kon verslaan.

Go is oneindig veel complexer dan schaken. Het aantal mogelijke posities op een Go-bord is groter dan het aantal atomen in het waarneembare universum. Waar een schaakcomputer in principe elke mogelijke zet kan doorrekenen, is dat bij Go onmogelijk. Het spel vereist iets wat lijkt op intuïtie, een gevoel voor patroon en vorm dat spelers in de loop van jaren ontwikkelen.

AlphaGo won de eerste partij. Lee Sedol was verbijsterd. Hij verloor de tweede en de derde ook. Maar het moment dat de wereld deed opschrikken was niet een van Lee Sedols nederlagen. Het was zet 37 in de tweede partij.

Op dat moment deed AlphaGo iets wat geen menselijke speler ooit had gedaan. Het plaatste een steen op een positie die door elke expert als een beginnersfout werd beschouwd. De commentatoren waren met stomheid geslagen. Fan Hui, een professionele Go-speler die het commentaar verzorgde, stond op uit zijn stoel. Het leek een blunder.

Maar het was geen blunder. Het was een zet van een diepte die de menselijke experts pas tientallen zetten later begrepen. AlphaGo had iets gezien wat in drieduizend jaar Go-geschiedenis nooit was gezien. Het had niet geleerd van mensen en vervolgens beter gespeeld dan mensen. Het had iets fundamenteel nieuws ontdekt.

Lee Sedol won de vierde partij en verloor de vijfde. Het eindresultaat was 4-1 voor AlphaGo. Na afloop zei Lee Sedol iets opmerkelijks. Hij bedankte AlphaGo. Niet ironisch, maar oprecht. De machine had hem laten zien dat er mogelijkheden waren in het spel waarvan hij het bestaan niet had vermoed.

Demis Hassabis, de oprichter van DeepMind, vertelde later dat zijn team de dag nadat ze terugkwamen uit Seoul begon aan een nieuw project: AlphaFold. Het was het project dat uiteindelijk het eiwitvouwprobleem zou oplossen, een raadsel waar de biologie vijftig jaar mee had geworsteld. Elk eiwit in het menselijk lichaam vouwt zich op een specifieke manier, en die vouwing bepaalt wat het eiwit doet. Voorspellen hoe een eiwit zou vouwen was een van de heilige gralen van de biologie. AlphaFold loste het op. Hassabis zou er in 2024, samen met collega John Jumper, de Nobelprijs voor Scheikunde voor ontvangen.

Twee Nobelprijzen in een jaar voor AI-onderzoekers. Het was een signaal dat zelfs de traditionele wetenschappelijke wereld niet meer om de technologie heen kon.

De dag erna

Maar terug naar die novemberdag in 2022. Terwijl miljoenen mensen zich vergaapten aan wat ChatGPT kon, brak er achter de schermen paniek uit op een plek waar dat zelden gebeurde: het hoofdkantoor van Google in Mountain View, Californie.

Google had een probleem. Het bedrijf had zelf, in zijn eigen labs, de Transformer-architectuur uitgevonden die ten grondslag lag aan ChatGPT. Het had een van de meest talentvolle AI-onderzoeksteams ter wereld in dienst. Het had meer rekenkracht, meer data en meer geld dan vrijwel elk ander bedrijf op aarde. En toch was het een startup genaamd OpenAI die het culturele moment had gepakt.

Binnen twee weken na de lancering van ChatGPT gaf Google een "code rood" af. Larry Page en Sergey Brin, de oprichters die zich al jaren niet meer met de dagelijkse gang van zaken bemoeiden, werden teruggehaald. Er moest iets gebeuren, en snel.

Google's antwoord kwam op 6 februari 2023: Bard. De lancering was een ramp die in techkringen legendarisch zou worden.

In het promotiefilmpje dat Google deelde op Twitter, werd Bard een vraag gesteld over de James Webb Space Telescope. Het antwoord bevatte een feitelijke fout. Astronomen merkten het op en lieten het de wereld weten. De fout was niet groot, maar het moment was vernietigend. Hier was Google, het bedrijf dat de wereld zijn informatie gaf, dat een product lanceerde dat foute informatie gaf in zijn eigen reclame.

De markt reageerde genadeloos. In een dag verloor Alphabet, het moederbedrijf van Google, honderd miljard dollar aan beurswaarde. Honderd miljard. Het was een van de grootste eendaagse waardedalingen in de geschiedenis van de aandelenmarkt.

Het contrast met OpenAI kon niet groter zijn. Waar ChatGPT een cultureel fenomeen werd dat mensen vrijwillig en enthousiast met elkaar deelden, werd Bard een waarschuwing. De lat lag anders voor AI dan voor welk ander product dan ook. Mensen verwachtten niet alleen dat het werkte. Ze verwachtten dat het betrouwbaar was. En een enkele fout kon het verschil maken tussen een triomf en een vernedering.

Sundar Pichai, de CEO van Google, hergroepeerde. In de maanden die volgden werden Google Brain en DeepMind samengevoegd tot Google DeepMind. Bard werd hernoemd tot Gemini. Het bedrijf stortte zich met volle kracht op een inhaalrace die het zich niet kon veroorloven te verliezen. Tegen 2025 was Gemini een serieuze concurrent geworden. Maar het culturele momentum dat OpenAI had veroverd in die eerste weken, dat zou Google nooit helemaal terugwinnen.

De vraag

Dit boek gaat niet over de technologie zelf. Er zijn genoeg boeken over hoe neurale netwerken werken, over de architectuur van Transformers, over de wiskunde achter het leren van patronen. Ze zijn fascinerend als je je erin wilt verdiepen, en sommige zijn opgenomen in de bronnen achterin dit boek.

Dit boek gaat over jou.

Over hoe deze technologie jouw werk verandert. Jouw vakgebied. Jouw dagelijkse routine. Over wat het betekent dat iedereen, voor het eerst in de geschiedenis, toegang heeft tot een intelligente assistent die nooit slaapt, nooit klaagt en elke dag beter wordt.

Het gaat over de vraag die eigenlijk iedereen zich zou moeten stellen: niet of AI je werk gaat veranderen, want dat doet het al, maar of je er klaar voor bent als de veranderingen versnellen.

De eerlijkheid gebiedt te zeggen dat niemand het exacte antwoord weet. Niet Sam Altman, niet Demis Hassabis, niet Geoffrey Hinton. Toen zes van 's werelds meest vooraanstaande AI-onderzoekers in november 2025 bij de Financial Times in Londen dezelfde vraag kregen, wanneer bereikt AI menselijk niveau, gaven ze zes verschillende antwoorden. Nul consensus. Maar over een ding waren ze het eens: dat dit een van de belangrijkste technologische verschuivingen is die de mensheid ooit heeft meegemaakt. Demis Hassabis vergeleek het met de uitvinding van vuur en elektriciteit.

Je kunt die vergelijking overdreven vinden. Misschien is ze dat. Maar wanneer de mensen die de technologie bouwen, de mensen die haar het best kennen, het beschrijven in termen van vuur en elektriciteit, dan is het op zijn minst de moeite waard om te luisteren.

Dit boek helpt je die verschuiving te begrijpen. Niet met jargon, niet met hype, niet met doemscenario's. Maar met verhalen, met onderzoek en met praktische inzichten die je morgen al kunt gebruiken.

Laten we beginnen.