Hoofdstuk 2 · De Aankomst
De stille revolutie
23 min leestijd
Terwijl de wereld in de winter van 2022 ontdekte wat ChatGPT kon, was er achter de schermen al jaren een stille revolutie gaande. Niet een van plotselinge doorbraken, maar van mensen met radicaal verschillende visies op dezelfde fundamentele vraag: wat moet de mensheid doen met kunstmatige intelligentie?
Om die vraag te begrijpen moet je de mensen kennen die hem stelden. En de organisaties die ze bouwden. Want de AI-revolutie is niet het verhaal van een enkele uitvinding. Het is het verhaal van een handvol mensen die elk hun eigen antwoord formuleerden, hun eigen lab oprichtten, hun eigen team verzamelden, en vervolgens ontdekten dat hun antwoorden onverenigbaar waren.
De droom van DeepMind
Het begon in 2010, in een nondescript kantoor in Londen, met drie mannen die elkaar hadden leren kennen aan het Gatsby Computational Neuroscience Unit van University College London. Demis Hassabis, Shane Legg en Mustafa Suleyman hadden een visie die ambitieuzer was dan vrijwel alles wat er op dat moment in de technologiewereld bestond: ze wilden intelligentie zelf begrijpen. Niet een programma schrijven dat een specifiek probleem oplost, maar een systeem bouwen dat leert problemen op te lossen, net zoals een mens dat doet.
Hassabis was een bijzonder persoon om zo'n missie te leiden. Als kind was hij een schaakwonderkind geweest. Op zijn dertiende was hij de op een na beste schaker van zijn leeftijdsgroep ter wereld. Hij gebruikte het geld dat hij met schaaktoernooien had gewonnen om een computer te kopen en leerde zichzelf programmeren. Op zijn zeventiende ontwierp hij mee aan het populaire computerspel Theme Park, dat miljoenen keren werd verkocht. Hij studeerde computerwetenschappen aan de Universiteit van Cambridge, bouwde een eigen gamesbedrijf, en promoveerde vervolgens in cognitieve neurowetenschappen aan University College London, waar hij onderzoek deed naar de manier waarop het menselijk brein herinneringen vormt en die herinneringen gebruikt om de toekomst te simuleren.
In Hassabis kwamen twee werelden samen die zelden samenkwamen: de wereld van het spel en de competitie, en de wereld van het brein en hoe het leert. Die combinatie zou bepalend zijn voor hoe DeepMind te werk ging.
De eerste aanpak van DeepMind was veelzeggend. Ze leerden hun AI niet om taal te begrijpen of beelden te herkennen. Ze leerden het om videogames te spelen. Breakout, Pong, Space Invaders. Het systeem kreeg geen regels, geen handleiding, geen hints. Het kreeg alleen de pixels op het scherm en de score. En het moest zelf uitzoeken wat de bedoeling was.
Het werkte. Na een paar uur spelen was het systeem beter dan de meeste mensen. Na een nacht was het beter dan de beste. Bij Breakout ontdekte het zelfs een strategie die menselijke spelers zelden gebruiken: het groef een tunnel door de muur van blokken en liet de bal erachter stuiteren, waardoor hele rijen tegelijk werden weggevaagd. Niemand had het systeem deze truc geleerd. Het had hem zelf ontdekt.
In januari 2014 publiceerde het wetenschappelijke tijdschrift Nature een paper over deze resultaten. Het was de eerste keer dat een AI-paper de cover van Nature haalde. Kort daarna kocht Google DeepMind voor meer dan vierhonderd miljoen dollar. Het was een signaal aan de rest van de industrie: dit was niet langer een academisch curiosum. Dit was de toekomst, en de toekomst was duur.
De kat die zichzelf vond
Tegelijkertijd was er binnen Google al iets gaande. In 2011 was Andrew Ng, een Stanford-professor die later medeoprichter zou worden van Coursera, begonnen met het "Deep Learning Project at Google." Hij werd al snel vergezeld door Jeff Dean, een van de meest gerespecteerde ingenieurs van het bedrijf, iemand die binnen Google bijna mythische status had vanwege zijn vermogen om schijnbaar onmogelijke technische problemen op te lossen. Het project werd hernoemd tot Google Brain.
Ng was geinspireerd door een hypothese die de neurowetenschapper Jeff Hawkins in 2006 had gepubliceerd: dat de menselijke neocortex, het deel van de hersenen dat verantwoordelijk is voor hogere cognitieve functies, wellicht werkt volgens een enkel, universeel algoritme. Als dat waar was, zou je in theorie een enkel AI-algoritme kunnen bouwen dat, mits het genoeg data en rekenkracht kreeg, kon leren om te zien, te horen, te begrijpen en te redeneren. Het was een gedurfd idee, en het drijft nog steeds een groot deel van het AI-onderzoek.
Het beroemdste vroege project van Google Brain werd een icoon van die filosofie. Ng en Dean bouwden een neuraal netwerk van zestienduizend computerprocessoren en lieten het een week lang kijken naar willekeurige thumbnails van YouTube-video's. Tien miljoen beelden, zonder enige aanwijzing over wat die beelden voorstelden. Niemand vertelde het systeem wat een kat was, wat een gezicht was, wat een auto was.
Na een week had het systeem zelfstandig het concept "kat" ontdekt. Het had, zonder enige menselijke instructie, geleerd katten te herkennen in beelden. Het klonk bijna als een grap, en het haalde dan ook de voorpagina van de New York Times. Maar achter de luchtigheid school een diepgaand bewijs: machines konden patronen vinden die niemand ze had aangewezen. Ze konden structuur ontdekken in de chaos van ruwe data, zonder dat een mens ze vertelde waar ze moesten zoeken.
In 2023, toen de concurrentiedruk van ChatGPT Google dwong tot actie, werden Google Brain en DeepMind samengevoegd tot Google DeepMind. De samenkomst van twee van de invloedrijkste AI-onderzoeksgroepen ter wereld onder een dak, onder leiding van Hassabis, was een teken van hoe snel het landschap verschoof.
Facebook zet in op openheid
Op 9 december 2013 kondigde Facebook aan dat Yann LeCun de leiding zou krijgen over een nieuw opgericht AI-onderzoekslaboratorium: FAIR, Facebook AI Research.
LeCun was niet zomaar een onderzoeker. Hij was een van de drie "godfathers" van deep learning, samen met Geoffrey Hinton en Yoshua Bengio. Als professor aan NYU en voormalig onderzoeker bij AT&T Bell Labs had hij een van de vroegste werkende versies van het backpropagatie-algoritme mee ontwikkeld, de methode waarmee neurale netwerken leren van hun fouten. Hij had het convolutioneel neuraal netwerk uitgevonden, de technologie die computers voor het eerst leerde om beelden te "zien." Zijn systeem werd in de jaren negentig al gebruikt door banken om handgeschreven cheques te lezen. Met LeCun aan het roer had Facebook niet zomaar een onderzoeker binnengehaald. Het had een van de grondleggers van het hele veld.
Maar wat FAIR echt onderscheidde was niet wie het leidde, maar wat het geloofde. De kernfilosofie van FAIR was radicale openheid. Bijna alles wat ze bouwden, deelden ze met de wereld. PyTorch, het programmeerkader dat uitgroeide tot een van de meest gebruikte gereedschappen voor AI-ontwikkeling. En later de Llama-modellen, een serie krachtige taalmodellen die iedereen gratis kon downloaden, inspecteren en aanpassen.
Meta ging verder dan alleen onderzoek delen. Het bedrijf ontketende een talentoorlog die zelfs naar Silicon Valley-maatstaven buitensporig was. Mark Zuckerberg benaderde persoonlijk de beste AI-onderzoekers ter wereld met compensatiepakketten die in de honderden miljoenen dollars liepen. Een 24-jarige onderzoeker die zijn studie niet had afgemaakt werd binnengehaald met een pakket dat naar verluidt 250 miljoen dollar waard was over vier jaar. Een andere onderzoeker kreeg een aanbod van anderhalf miljard dollar over zes jaar. Sam Altman van OpenAI klaagde publiekelijk dat Meta "tekenbonussen van honderd miljoen dollar" bood. Het waren bedragen die absurd klonken, maar die logisch werden als je besefte hoeveel het kostte om een groot taalmodel te trainen. Als je een miljard dollar uitgeeft aan de training van een model, is tien miljoen voor de ingenieur die het verschil maakt tussen een goed en een baanbrekend model een relatief kleine investering.
LeCun zelf werd een van de meest uitgesproken stemmen in het AI-debat, maar dan aan een kant die weinig anderen innamen. Waar collega's als Hinton en Bengio waarschuwden voor existentieel gevaar, hield LeCun vol dat de huidige modellen niet eens in de buurt kwamen van echte intelligentie. "We hebben nog niet eens een machine die zo slim is als een kat," herhaalde hij regelmatig op conferenties en op sociale media, waar hij zich niet schuwde om publiekelijk van mening te verschillen met wie dan ook. "Katten begrijpen de fysieke wereld. Ze kunnen plannen, ze kunnen jagen, ze kunnen navigeren. Geen enkel huidig AI-systeem kan dat."
LeCun was ervan overtuigd dat de volgende grote doorbraak niet zou komen van steeds grotere taalmodellen. Hij voorspelde dat de toekomst lag in wat hij "world models" noemde: systemen die de wereld begrijpen zoals een kind dat doet, door erin te bewegen, dingen vast te pakken, te duwen en te trekken, en zo een intern model van de werkelijkheid op te bouwen. Het was een fundamenteel andere visie dan die van OpenAI of DeepMind, en LeCun verdedigde hem met een overtuiging die soms op eigenwijsheid leek maar die geworteld was in een halve eeuw nadenken over hoe intelligentie werkt.
OpenAI: van ideaal naar imperium
Om het verhaal van OpenAI te begrijpen moet je eerst het verhaal van Sam Altman begrijpen, want de twee zijn onlosmakelijk verbonden.
Altman groeide op in St. Louis, Missouri, als zoon van een dermatologe. Op zijn achtste kreeg hij zijn eerste computer, een Macintosh, en leerde hij zichzelf programmeren. Op zijn zestiende kwam hij uit als homo, wat in het Midwesten van de Verenigde Staten in het begin van de jaren 2000 geen vanzelfsprekendheid was. Hij studeerde computerwetenschappen aan Stanford maar stopte na twee jaar om een startup te beginnen: Loopt, een locatiegebaseerd sociaal netwerk. Het bedrijf werd geen succes, maar het bracht Altman in contact met Paul Graham, de oprichter van Y Combinator, de invloedrijkste startup-accelerator ter wereld. Graham zag iets in de jonge Altman, een combinatie van technische scherpte en zakelijk instinct die zeldzaam was, en in 2014, op 28-jarige leeftijd, werd Altman president van Y Combinator.
Het was in die rol dat Altman begon na te denken over kunstmatige intelligentie. Niet als een technisch probleem, maar als een maatschappelijk probleem. Hij zag honderden startups per jaar en merkte dat steeds meer daarvan AI-technologie gebruikten. Hij begon zich af te vragen wat er zou gebeuren als die technologie echt krachtig werd. Wie zou er controle over hebben? Wie zou ervan profiteren? En wie zou er de prijs voor betalen?
Op 11 december 2015 werd OpenAI opgericht met een aankondiging die de aandacht trok van de gehele technologiewereld. Een groep van de meest vooraanstaande figuren in Silicon Valley had een non-profit AI-onderzoeksorganisatie opgericht met een oorlogskas van een miljard dollar. Onder de oprichters waren Altman; Elon Musk, de man achter Tesla en SpaceX; Greg Brockman, voormalig CTO van betalingsbedrijf Stripe; en Ilya Sutskever, een van Geoffrey Hinton's meest briljante studenten, die bij Google Brain had gewerkt aan baanbrekend onderzoek.
De missie was expliciet en ambitieus op een manier die zelfs voor Silicon Valley uitzonderlijk was: het bouwen van Artificial General Intelligence, AGI, een kunstmatige intelligentie die op elk terrein ten minste even capabel zou zijn als een mens. En ervoor zorgen dat die AGI ten goede kwam aan de hele mensheid, niet aan een handvol bedrijven. Open onderzoek, gedeelde resultaten, geen winstoogmerk. Het was een nobele belofte, mede ingegeven door de overtuiging dat als AGI in handen viel van een enkel bedrijf, de gevolgen catastrofaal zouden kunnen zijn.
Het streven naar AGI, een concept dat lang tot het domein van de sciencefiction had behoord, werd door OpenAI tot een expliciete bedrijfsdoelstelling verheven. Niet als een verre droom, maar als een concreet doel om naartoe te werken. DeepMind deelde die ambitie, hoewel Hassabis er minder luidruchtig over was. Anthropic was voorzichtiger in zijn formuleringen maar erkende dat de technologie zich in die richting bewoog. Het was een opmerkelijk moment in de geschiedenis van de technologie: meerdere organisaties met miljarden aan financiering werkten openlijk aan het bouwen van iets wat, als het lukte, alles zou veranderen.
Maar het duurde niet lang voordat de realiteit van AI-onderzoek die belofte op de proef stelde. Training van grote modellen kostte enorme hoeveelheden rekenkracht, en rekenkracht kostte geld. Veel geld. Meer geld dan een non-profit redelijkerwijs kon uitgeven.
Het was een paradox die OpenAI nooit volledig zou oplossen: hoe bouw je de krachtigste technologie ter wereld zonder daarvoor de middelen van de machtigste bedrijven ter wereld aan te spreken?
In maart 2019 deed OpenAI iets wat velen als een breuk met het oorspronkelijke ideaal beschouwden: het richtte een "capped-profit" dochteronderneming op, OpenAI LP. Microsoft investeerde een miljard dollar. Later zou dat oplopen tot dertien miljard. De belofte was dat winsten geplafonneerd zouden zijn, dat het geld boven een bepaald rendement terug zou vloeien naar de non-profit. Maar de richting was duidelijk. OpenAI bewoog zich van onderzoekslab naar bedrijf.
Sam Altman, die de dagelijkse leiding op zich had genomen, was het gezicht van die transformatie. Een slanke, rustig sprekende man die zelden zijn stem verhief maar die een vermogen had om precies te zeggen wat investeerders, journalisten en gebruikers wilden horen. Zijn visie was dat je de missie om AI veilig en breed toegankelijk te maken alleen kon waarmaken met de schaal en de middelen van een groot bedrijf. Het was niet iedereen die hem geloofde.
Tegen begin 2026 had ChatGPT achthonderd miljoen wekelijkse gebruikers. Het werd gebruikt door 92 procent van de Fortune 500-bedrijven. OpenAI was gegaan van een non-profit die AI voor iedereen wilde bouwen naar een van de meest gewaardeerde bedrijven ter wereld.
De spanning tussen het oorspronkelijke ideaal en de commerciele werkelijkheid zou uiteindelijk leiden tot de meest dramatische bestuurlijke crisis in de recente techgeschiedenis.
De nacht van november
Op vrijdag 17 november 2023, bijna precies een jaar na de lancering van ChatGPT, kreeg Sam Altman een telefoontje dat zijn wereld op zijn kop zette. Het bestuur van OpenAI had besloten hem te ontslaan als CEO.
Het bestuur, waarin Ilya Sutskever een centrale rol speelde, had geconcludeerd dat Altman niet langer het vertrouwen genoot. Er was een memo van 52 pagina's opgesteld. De exacte inhoud daarvan is nooit volledig openbaar gemaakt, maar de kern draaide om een fundamentele onenigheid die OpenAI al sinds zijn oprichting had achtervolgd: hoe snel moest het bedrijf commercialiseren, en ging dat ten koste van de zorgvuldigheid die nodig was om de veiligheid te waarborgen?
Wat volgde was een weekend van chaos dat zelfs naar Silicon Valley-maatstaven buitengewoon was.
Op zaterdag probeerde het bestuur Twitch-oprichter Emmett Shear als interim-CEO aan te stellen. Op zondag tekenden meer dan 700 van de 770 medewerkers van OpenAI een open brief waarin ze dreigden over te stappen naar Microsoft als Altman niet werd teruggebracht. Satya Nadella, de CEO van Microsoft, dat dertien miljard dollar in OpenAI had geinvesteerd, bood publiekelijk aan om het hele team op te vangen.
Op maandag was Altman terug.
Het was een soort paleisrevolutie die was mislukt, maar die diepe sporen achterliet. Sutskever, die het ontslag had mede-ingeleid, zei publiekelijk dat hij spijt had van zijn rol. Hij vertrok in mei 2024 bij OpenAI. Samen met Daniel Levy richtte hij Safe Superintelligence Inc. op, een bedrijf met een even radicale als smalle missie: het bouwen van een veilige superintelligentie. Niets anders. Geen producten, geen gebruikers, geen omzet. Alleen onderzoek naar het veilig maken van systemen die slimmer zijn dan mensen.
SSI bereikte een waardering van 32 miljard dollar zonder ook maar een enkel product te hebben gelanceerd. Het was een teken van hoezeer investeerders geloofden in het belang van AI-veiligheid, of van hoezeer ze geloofden in Sutskever, of van hoezeer de waarderingen in de AI-sector elk contact met de werkelijkheid hadden verloren. Waarschijnlijk alle drie.
Een vertrek uit bezorgdheid
Maar de meest betekenisvolle scheuring bij OpenAI had al eerder plaatsgevonden, stiller maar met grotere consequenties.
Tussen december 2020 en januari 2021 vertrokken elf medewerkers bij OpenAI. Onder hen waren Dario Amodei, de Vice President of Research, en zijn zus Daniela Amodei, die als VP of Operations verantwoordelijk was geweest voor de bedrijfsvoering. Ze vertrokken niet vanwege een ruzie of een schandaal. Ze vertrokken vanwege wat ze later "directionele verschillen" zouden noemen: een fundamenteel verschil van inzicht over de richting die OpenAI insloeg.
De zorgen waren specifiek. Dario Amodei maakte zich zorgen over het tempo waarin OpenAI steeds krachtigere modellen uitbracht. Over de mate waarin commerciele druk, de behoefte aan inkomsten, aan groei, aan marktaandeel, de beslissingen over veiligheid beinvloedde. Over de vraag of de organisatiestructuur van OpenAI, een non-profit die een winstgevend bedrijf bestuurde, bestand was tegen de druk die zou komen als de modellen nog krachtiger werden.
In 2021 richtten de Amodei's Anthropic op. Het verschil met OpenAI was niet alleen organisatorisch maar filosofisch. Waar OpenAI steeds meer neigde naar snelheid en marktaandeel, maakte Anthropic veiligheid tot het kernprincipe van alles wat ze deden. Hun belangrijkste innovatie was Constitutional AI, en het is de moeite waard om te begrijpen wat dat precies inhoudt, omdat het illustreert dat AI-veiligheid niet een enkel probleem is met een enkele oplossing.
De standaardaanpak, gepopulariseerd door OpenAI, was RLHF: Reinforcement Learning from Human Feedback. Menselijke beoordelaars lezen de output van het model, beoordelen welke antwoorden goed en welke slecht zijn, en het model leert van die beoordelingen. Het werkt, maar het is duur, langzaam, en beperkt door de kwaliteit en de vooroordelen van de beoordelaars. Als je beoordelaars iets over het hoofd zien, ziet het model het ook over het hoofd.
Anthropic deed iets anders. Ze gaven het model een expliciete set principes, een grondwet, en leerden het om zijn eigen antwoorden tegen die principes te toetsen. Het model genereert een antwoord, bekritiseert dat antwoord aan de hand van de grondwet, en genereert vervolgens een verbeterde versie. Het leert zichzelf te corrigeren, zonder dat er voor elke correctie een mens aan te pas komt. Het was alsof je een medewerker niet alleen vertelt wat hij moet doen, maar hem ook het beoordelingskader geeft waarmee hij zijn eigen werk kan evalueren.
Het inzicht was subtiel maar diepgaand: in plaats van te vertrouwen op een leger van menselijke beoordelaars, kon je het model leren om zijn eigen criticus te zijn. Het was schaalbaarder, consistenter, en het maakte de waarden van het systeem expliciet en controleerbaar. Iedereen kon de grondwet lezen en beoordelen of die klopte.
Dario Amodei werd een van de meest genuanceerde stemmen in het debat over de toekomst van AI. In oktober 2024 publiceerde hij "Machines of Loving Grace," een essay van meer dan vijftienduizend woorden dat opviel door zijn weigering om een kant te kiezen. Het was geen waarschuwingsverhaal en geen loflied. Amodei schetste in detail hoe AI de biologie kon transformeren door het versnellen van medicijnontwikkeling, hoe het de neurowetenschappen kon voortstuwen, hoe het de economische ontwikkeling van armere landen kon versnellen, hoe het bestuur en democratie kon versterken. Maar hij beschreef ook de risico's, en hij deed dat met een specificiteit die zijn achtergrond als onderzoeker verried. Zijn centrale argument was dat mensen zowel de risico's als de radicale voordelen systematisch onderschatten.
Op het World Economic Forum in Davos, in januari 2026, deed Amodei een uitspraak die door de techwereld gonsde. AI-modellen, zei hij, zouden binnen een jaar het werk van alle softwareontwikkelaars kunnen vervangen en binnen twee jaar "Nobelprijswaardig" wetenschappelijk onderzoek kunnen doen in meerdere vakgebieden tegelijk. Het was een voorspelling die, zelfs in een wereld die gewend was geraakt aan gedurfde AI-claims, opviel door zijn specificiteit en door wie hem deed.
Maar Anthropic's principes werden niet alleen getest door de markt. In februari 2026 publiceerde Amodei een verklaring die een scherp licht wierp op de spanning tussen AI-veiligheid en staatsmacht. Het Amerikaanse Department of War had Anthropic onder druk gezet om Claude beschikbaar te stellen voor alle legale militaire toepassingen. Anthropic weigerde op twee punten: massale binnenlandse surveillance en volledig autonome wapens. Bij het eerste, stelde Amodei, was de wet simpelweg niet bijgewerkt voor wat moderne AI kon. Bij het tweede waren de huidige systemen "gewoon niet betrouwbaar genoeg" om zonder menselijk toezicht dodelijke beslissingen te nemen. Het ministerie dreigde Anthropic uit zijn systemen te verwijderen en als "supply chain risk" te bestempelen, een label dat normaal was voorbehouden aan vijandige naties. Amodei's reactie was kort: de dreigementen veranderden niets aan Anthropic's positie.
Het was een opmerkelijk moment. Het bedrijf dat was opgericht uit bezorgdheid over de veiligheid van AI bij OpenAI, dat Constitutional AI had ontwikkeld als alternatief voor de gangbare aanpak, weigerde nu onder druk van de machtigste overheid ter wereld zijn principes los te laten. Of je het moedig of naïef vindt, het illustreerde dat de keuzes over hoe AI wordt ingezet niet alleen technisch of commercieel zijn. Ze zijn ook moreel. En die morele keuzes worden met de dag urgenter naarmate de technologie krachtiger wordt.
De godfathers en hun geweten
Boven al deze verhalen torende een figuur uit die een unieke en tragische positie innam in het AI-debat: Geoffrey Hinton.
De man die meer dan wie ook had bijgedragen aan de theoretische fundamenten van deep learning, die decennialang had gevochten om zijn vakgebied serieus genomen te krijgen, die had gezien hoe zijn levenswerk uitgroeide tot een van de machtigste technologieen ter wereld, was nu een van de luidste stemmen die waarschuwden dat diezelfde technologie de mensheid kon bedreigen.
In mei 2023 had Hinton ontslag genomen bij Google. Niet vanwege een conflict, maar omdat hij vrij wilde zijn om te zeggen wat hij dacht zonder zijn werkgever in verlegenheid te brengen. In een interview met de New York Times legde hij uit dat hij spijt had van delen van zijn werk. "Ik troost mezelf met de normale uitvlucht: als ik het niet had gedaan, had iemand anders het gedaan," zei hij. Het was een opmerking die deed denken aan Robert Oppenheimer, de vader van de atoombom, die na de oorlog dezelfde worsteling had doorgemaakt.
Hinton schatte dat er een "10 tot 20 procent kans" was dat AI tot de uitroeiing van de mensheid zou leiden binnen dertig jaar. Het was een getal dat onvoorstelbaar zou moeten zijn, maar dat hij uitsprak met de droge precisie van een wetenschapper die een risicoschatting maakt. Hij schatte dat superintelligentie, een AI die slimmer is dan de mens op elk gebied, binnen vijf tot twintig jaar kon ontstaan. En hij waarschuwde dat de huidige aanpak, waarbij de ontwikkeling grotendeels in handen was van commerciele bedrijven die werden gedreven door winst en marktaandeel, niet voldoende was om de veiligheid te waarborgen. "Het gewoon overlaten aan het winstmotief van grote bedrijven zal niet voldoende zijn," zei hij. "Er is overheidsregulering nodig."
Het was een opmerkelijk standpunt: de man die het vuur had aangestoken waarschuwde nu dat het uit de hand kon lopen. En het was een standpunt waarmee hij lijnrecht tegenover zijn oude collega Yann LeCun kwam te staan, die het existentieel risico van AI als sterk overdreven beschouwde. Twee van de drie godfathers van deep learning, twee Turingprijswinnaars, twee mannen die decennialang schouder aan schouder hadden gewerkt, stonden nu publiekelijk tegenover elkaar over de vraag of hun gezamenlijke creatie de mensheid kon vernietigen.
Yoshua Bengio, de derde godfather, nam een middenpositie in. Hij deelde veel van Hintons zorgen maar bleef geloven dat de technologie, mits goed gereguleerd, overwegend positief kon zijn. In 2023 ondertekende hij, samen met Hinton en honderden andere onderzoekers, een verklaring die stelde dat het beperken van het risico van uitroeiing door AI een wereldwijde prioriteit zou moeten zijn, naast andere bedreigingen op maatschappelijke schaal zoals pandemieën en kernwapens.
De medeoprichter die vijand werd
Er is nog een figuur in het OpenAI-verhaal die vermelding verdient, en dat is Elon Musk.
Musk was een van de medeoprichters van OpenAI en een van de grootste vroege financiers. Maar in 2018 vertrok hij uit het bestuur, officieel vanwege mogelijke belangenconflicten met Tesla's eigen AI-werk aan zelfrijdende auto's. De werkelijke reden, zo bleek later, was complexer. Musk had aangeboden om de leiding over OpenAI te nemen, een voorstel dat door het bestuur was afgewezen. Het vertrek was niet vriendschappelijk.
In de jaren die volgden werd Musk een van de luidruchtigste critici van OpenAI. Hij klaagde dat het bedrijf zijn oorspronkelijke non-profitmissie had verraden. Hij klaagde dat het te nauw verweven was geraakt met Microsoft. Hij klaagde dat het niet langer "open" was. Hij diende een rechtszaak in die hij later weer introk en opnieuw indiende.
En in maart 2023, twee maanden na het enorme succes van ChatGPT, richtte Musk zijn eigen AI-bedrijf op: xAI. Het was een typische Musk-manoeuvre: als je het niet kunt leiden, bouw je een concurrent. xAI lanceerde Grok, een taalmodel dat werd geintegreerd in X, het sociale mediaplatform dat Musk in 2022 had overgenomen van Twitter. Grok onderscheidde zich door wat Musk een "rebelse persoonlijkheid" noemde: het model was minder terughoudend dan ChatGPT of Claude en bereid om controversielere onderwerpen te bespreken.
Tegen 2025 had xAI een waardering van meer dan vijftig miljard dollar bereikt en bouwde het Colossus, een van de grootste AI-trainingsclusters ter wereld, in een voormalige Electrolux-fabriek in Memphis, Tennessee. Musk's betrokkenheid bij AI was, net als alles wat Musk deed, luidruchtig, controversieel en onmogelijk te negeren. Hij was tegelijkertijd een van de mensen die het hardst waarschuwden voor de gevaren van AI en een van de mensen die het hardst werkten om krachtigere AI te bouwen. Het was een contradictie die hij nooit bevredigend heeft opgelost.
De grote afwezige
In al deze verhalen over AI-labs, over concurrerende visies en miljarden aan investeringen, valt een naam op door zijn afwezigheid: Apple.
Het meest waardevolle bedrijf ter wereld, het bedrijf dat de smartphone had uitgevonden en daarmee de manier waarop miljarden mensen hun leven leiden had veranderd, leek merkwaardig stil in de AI-race. Terwijl Google, Microsoft, Meta en Amazon miljarden investeerden in taalmodellen en AI-onderzoek, bleef Apple aan de zijlijn. Siri, de spraakassistent die Apple al in 2011 had gelanceerd, jaren voordat het publiek nadacht over AI, was nauwelijks verbeterd. Terwijl ChatGPT gesprekken voerde die leken op interacties met een belezen mens, bleef Siri worstelen met basale vragen.
In juni 2024 kondigde Apple uiteindelijk "Apple Intelligence" aan, een suite van AI-functies geintegreerd in de iPhone, iPad en Mac. Maar de aanpak was typerend voor Apple: voorzichtig, gefocust op privacy, en samengesteld uit een combinatie van eigen kleinere modellen en een partnerschap met OpenAI voor de zwaardere taken. Het was geen poging om de krachtigste AI ter wereld te bouwen. Het was een poging om AI veilig en bruikbaar te maken voor gewone mensen.
De reacties waren gemengd. Sommigen prezen Apple voor zijn privacy-gerichte aanpak in een wereld waar andere bedrijven gretig data verzamelden. Anderen zagen het als een teken dat Apple de boot had gemist, dat het bedrijf dat ooit de toekomst definieerde nu de toekomst volgde. De waarheid lag vermoedelijk ergens in het midden, maar het contrast met de agressieve investeringen van Google en Microsoft was opvallend. In de AI-race leek Apple, voor het eerst in lange tijd, geen voorloper maar een volger.
Europa's antwoord
In de schaduw van de Amerikaanse giganten en de Chinese uitdagers bouwde een Fransman stilletjes aan het Europese antwoord op de AI-race.
Arthur Mensch had zijn opleiding genoten aan de Ecole Normale Superieure in Parijs en had vervolgens bij Google DeepMind gewerkt, waar hij mee had gebouwd aan de Chinchilla-paper, een invloedrijk onderzoek over de optimale verhouding tussen modelgrootte en trainingsdata. In mei 2023 richtte hij samen met twee collega's Mistral AI op. Het bedrijf was nog geen maand oud toen het al 105 miljoen euro aan financiering ophaalde, de grootste seed-ronde ooit voor een Europees AI-bedrijf.
Mistral's positionering was even slim als strategisch. In een wereld waarin Amerika en China de AI-race domineerden, profileerde Mistral zich als het Europese alternatief. Open-source, privacy-bewust, en geworteld in de Europese waarden die de EU AI Act probeerde te codificeren. Het was een verhaal dat resoneerde in Brussel en Parijs, en het hielp dat Mensch technisch zo sterk was als iedereen in Silicon Valley.
Tegen 2025 had Mistral een waardering van meer dan zes miljard euro bereikt en had het modellen uitgebracht die concurreerden met die van veel grotere, beter gefinancierde labs. Voor Nederlandse en Europese lezers was Mistral meer dan een technisch verhaal. Het was het bewijs dat Europa niet hoefde toe te kijken terwijl Amerika en China de regels bepaalden. Er was een Europees alternatief, en het was serieus.
Maar Mistral was ook een illustratie van een dilemma dat Europa al decennia achtervolgde. Het bedrijf was klein vergeleken met OpenAI of Google DeepMind. Het had minder geld, minder rekenkracht, minder data. Om te concurreren moest het slimmer zijn, niet groter. Of het die strategie op de lange termijn kon volhouden, was een open vraag die raakt aan een bredere vraag: kan Europa onafhankelijk zijn in AI, of wordt het altijd afhankelijk van Amerikaanse of Chinese technologie?
Een Chinees antwoord
Terwijl de westerse AI-labs streden om marktaandeel en debatteerden over veiligheid, kwam er in januari 2025 een schokgolf uit een onverwachte richting.
DeepSeek, een relatief onbekende Chinese startup opgericht door Liang Wenfeng, een voormalig hedgefondsbeheerder, publiceerde R1: een open-source model met 671 miljard parameters. Het was ontwikkeld in twee maanden voor minder dan zes miljoen dollar. En het presteerde even goed als OpenAI's o1 op wiskundige benchmarks en was vergelijkbaar met GPT-4o en Claude 3.5 Sonnet op andere tests.
De implicaties waren enorm, en ze verstoorden verschillende aannames tegelijk.
Ten eerste bewees DeepSeek dat de Amerikaanse exportbeperkingen op geavanceerde chips, bedoeld om China's AI-ontwikkeling af te remmen, het tegenovergestelde effect hadden gehad. In plaats van China te vertragen, hadden de beperkingen het land gedwongen tot innovatie in efficientie. Zonder toegang tot de nieuwste NVIDIA-chips had DeepSeek methoden ontwikkeld om met oudere, minder krachtige hardware vergelijkbare resultaten te bereiken.
Ten tweede liet het zien dat de enorme investeringen van westerse bedrijven, de tientallen miljarden van Microsoft, Google en Amazon, niet per se nodig waren om state-of-the-art modellen te bouwen. De API van DeepSeek was 95 procent goedkoper dan die van OpenAI. Het was een signaal dat de kosten van AI drastisch konden dalen, met alle gevolgen van dien voor de toegankelijkheid.
De wereldmarkten reageerden onmiddellijk. Op 27 januari 2025 verloor NVIDIA meer dan zeshonderd miljard dollar aan beurswaarde, de grootste eendaagse waardedaling van een enkel bedrijf in de geschiedenis. Het hele verhaal dat westerse techbedrijven vertelden over de noodzaak van steeds duurdere chips, steeds grotere datacenters, steeds hogere investeringen, werd in een dag op zijn kop gezet.
Het was een herinnering dat de AI-revolutie geen exclusief Amerikaans verhaal was. En het was een voorbode van een wereld waarin de toegang tot krachtige AI niet langer afhankelijk zou zijn van de diepste zakken.
Het geopolitieke schaakbord
DeepSeek was slechts het meest zichtbare symptoom van een veel breder geopolitiek conflict. AI was in een paar jaar tijd uitgegroeid van een technologisch onderzoeksveld tot een strategisch wapen, een factor in de machtsbalans tussen naties, vergelijkbaar met de nucleaire technologie in de Koude Oorlog.
De Verenigde Staten waren de eerste die dat expliciet erkenden. In oktober 2022, nog voordat ChatGPT werd gelanceerd, kondigde de Amerikaanse overheid ingrijpende exportbeperkingen aan op geavanceerde halfgeleiders naar China. NVIDIA's meest krachtige chips, essentieel voor het trainen van grote AI-modellen, mochten niet meer worden verkocht aan Chinese bedrijven. De beperkingen werden in 2023 aangescherpt, en in 2024 opnieuw. Het signaal was helder: Amerika beschouwde AI-superioriteit als een kwestie van nationale veiligheid en was bereid economische relaties op te offeren om die superioriteit te beschermen.
China's reactie ging verder dan DeepSeek. De Chinese overheid had al in 2017 een nationaal AI-strategieplan gepubliceerd met als doel wereldleider te zijn in 2030. Terwijl Amerikaanse AI-bedrijven werden gedreven door venture capital en beurskoersen, kon China zijn staatsgestuurde aanpak inzetten: gecoordineerde investeringen, toegang tot enorme datasets van zijn 1,4 miljard inwoners, en een reguleringsomgeving die snelle experimenten mogelijk maakte, maar ook een die AI inzette voor surveillance en sociale controle op een schaal die in democratieen ondenkbaar was.
En Europa? Europa koos een derde weg, typisch Europees in zijn ambities en zijn beperkingen. Terwijl Amerika bouwde en China kopieerde en innoveerde, reguleerde Europa. De AI Act, die in augustus 2024 in werking trad, was de eerste uitgebreide AI-wetgeving ter wereld. Het classificeerde AI-systemen op basis van risico, verbood bepaalde toepassingen zoals sociale scoring, en legde transparantieverplichtingen op aan ontwikkelaars. Het was baanbrekend wetgevend werk. Maar het was ook een bevestiging van een patroon: Europa schreef de regels voor een wedstrijd die anderen speelden.
De cijfers waren ontnuchterend. Europa bezat naar schatting slechts vijf procent van de mondiale AI-rekenkracht. De tien grootste AI-bedrijven ter wereld waren allemaal Amerikaans of Chinees. Geen enkel Europees bedrijf kon qua schaal concurreren met OpenAI, Google DeepMind of de Chinese giganten. Mistral was een lichtpuntje, maar het was een lichtpuntje met een fractie van de middelen van zijn Amerikaanse concurrenten.
Voor Nederlandse lezers was dit geen abstract geopolitiek verhaal. Het was een directe werkelijkheid. De AI-tools die je op je werk gebruikte, werden gebouwd in San Francisco en Peking. De data waarmee ze werden getraind, werden grotendeels verzameld onder Amerikaans of Chinees recht. De regels waaraan je je moest houden, werden geschreven in Brussel. Het was een driehoeksverhouding die bepaalde hoe snel je organisatie AI kon adopteren, welke tools je mocht gebruiken, en hoeveel controle je had over de technologie die je dagelijks werk veranderde. Peter Wennink, de voormalig CEO van ASML, het Nederlandse chipbedrijf dat een onmisbare schakel vormde in de mondiale halfgeleiderketen, had het kernachtig samengevat: Europa moest niet alleen regels schrijven, maar ook bouwen. Anders zou het continent een museum worden in een wereld van fabrieken.
De rondetafel
Op 6 november 2025, in Londen, organiseerde de Financial Times een bijeenkomst die het verhaal van dit hoofdstuk perfect samenvat.
Aan tafel zaten Jensen Huang, de CEO van NVIDIA wiens bedrijf de chips maakte waarop bijna alle AI-systemen draaiden; Yoshua Bengio, de Turingprijswinnaar uit Montreal; Geoffrey Hinton, de godfather die waarschuwde voor zijn eigen creatie; Fei-Fei Li, de Stanford-professor wier ImageNet-dataset de deep learning-revolutie had mede mogelijk gemaakt; Yann LeCun, die bleef volhouden dat de huidige AI niet eens zo slim was als een kat; en Bill Dally, chief scientist bij NVIDIA.
Allen winnaars van de Queen Elizabeth Prize for Engineering 2025. Allen pioniers op hun eigen manier. Allen gevraagd dezelfde vraag: hoe lang duurt het nog voordat AI menselijk niveau bereikt?
LeCun zei dat het langer zou duren dan mensen dachten, en dat de huidige aanpak van steeds grotere taalmodellen een doodlopende weg was. Li zei dat AI in sommige capaciteiten de mens al voorbij was. Huang zei dat het al werd ingezet op manieren die het menselijk vermogen overstegen. Hinton schatte twintig jaar maar benadrukte dat het ook vijf kon zijn. Dally betwijfelde of "menselijk niveau" de juiste maatstaf was. Bengio zei: vijf jaar voor het ingenieursniveau.
Zes van de slimste en meest geïnformeerde mensen ter wereld, allen met decennia diepe kennis van precies dezelfde technologie, en ze waren het over vrijwel niets eens: niet over het tempo, niet over de richting, niet over de risico's, niet over de oplossingen.
Dat vertelt je iets belangrijks. Niet dat deze mensen ongelijk hebben. Maar dat de toekomst van AI niet vastligt. Dat er keuzes worden gemaakt, elke dag, door de mensen en organisaties die deze technologie bouwen. En dat die keuzes niet alleen technisch zijn, maar ook moreel, economisch en politiek.
Een maand later, in december 2025, maakte Time magazine bekend wie de Person of the Year was: niet één persoon, maar acht. De "Architects of AI." Op de covers stonden Sam Altman, Jensen Huang, Demis Hassabis, Dario Amodei, Elon Musk, Mark Zuckerberg, Fei-Fei Li en Lisa Su, de CEO van chipfabrikant AMD. Acht mensen die samen de architecten vormden van wat het tijdschrift de bepalende technologie van onze tijd noemde. Hoofdredacteur Sam Jacobs schreef dat 2025 het jaar was waarin het volledige potentieel van kunstmatige intelligentie zichtbaar werd, en waarin duidelijk werd dat er geen weg terug was.
Het was een opmerkelijke erkenning. Vijf van de acht waren al miljardair, met een gezamenlijk vermogen van meer dan 800 miljard dollar. Maar Time erkende ook de keerzijde: het energieverbruik, de banen die verdwenen, de concentratie van macht bij een handvol mensen. Het was precies de spanning die dit hele hoofdstuk doorkruist, de spanning tussen belofte en risico, tussen vooruitgang en voorzichtigheid, tussen de droom van wat AI kan betekenen en de angst voor wat het kan aanrichten.
De stille revolutie was nooit alleen een technische revolutie. Het was altijd ook een menselijke. Gedreven door ambitie en angst, door idealisme en geld, door de wens om de wereld te verbeteren en de verleiding om haar te beheersen.
En het verhaal is nog lang niet af.