In de afgelopen twee jaar is kunstmatige intelligentie voelde vreemd vlak.
Grote taalmodellen verspreidden zich met een ongekende snelheid, maar ze hebben ook een groot deel van de concurrentiegradiënt uitgewist. Iedereen heeft toegang tot dezelfde modellen, dezelfde interfaces en steeds vaker dezelfde antwoorden. Wat aanvankelijk leek op een technologische revolutie, begon al snel op een instrument te lijken: krachtig, indrukwekkend en grotendeels uitwisselbaar, een dynamiek die al zichtbaar is in de snelle commoditisering van basismodellen bij providers zoals OpenAI, Google, Anthropic en Meta.
Die afvlakking is geen toeval. LLM’s zijn buitengewoon goed in één ding: leren van tekst– maar structureel niet in staat tot een ander: om te begrijpen hoe de echte wereld zich gedraagt. De modelleer geen causaliteitde niet leren van fysieke of operationele feedbacken zij bouw geen interne representaties van omgevingenbelangrijk beperkingen dat zelfs hun meest prominente voorstanders nu openlijk erkennen.
Ze voorspellen woorden, geen gevolgen, een onderscheid dat pijnlijk duidelijk wordt op het moment dat deze systemen wordt gevraagd buiten de puur taalkundige domeinen te opereren.
De valse keuze houdt de AI-strategie tegen
Een groot deel van de hedendaagse AI-strategie zit gevangen in binair denken. Bedrijven ‘huren intelligentie’ van generieke modellen, of ze proberen alles zelf te bouwen: eigen infrastructuur, op maat gemaakte computerstacks en op maat gemaakte AI-pijplijnen die hyperscalers nabootsen.
Die framing is zowel onrealistisch als historisch analfabeet.
- De meeste bedrijven zijn niet concurrerend geworden hun eigen databases bouwen.
- Ze hebben niet hun eigen tekst geschreven besturingssystemen.
- Ze hebben niet gebouwd hyperscale datacenters om waarde uit analyses te halen.
In plaats daarvan adopteerden ze gedeelde platforms en bouwden daarbovenop zeer aangepaste systemen, systemen die hun specifieke processen, beperkingen en prikkels weerspiegelden.
AI zal hetzelfde pad volgen.
Wereldmodellen zijn geen infrastructuurprojecten
Wereldmodellen, systemen die leren hoe omgevingen zich gedragen, feedback opnemen en voorspellingen en planning mogelijk maken, hebben dat wel gedaan een lange intellectuele geschiedenis van AI-onderzoek.
Sinds kort hebben ze dat opnieuw naar voren als een centrale onderzoeksrichting juist omdat LLM’s een plateau bereiken wanneer ze worden geconfronteerd met de realiteit, causaliteit en tijd.
Er wordt vaak beschreven dat ze verticale integratie in elke laag vereisen. Die veronderstelling is verkeerd.
De meeste bedrijven zullen geen op maat gemaakte datacenters of eigen computerstacks bouwen om wereldmodellen uit te voeren. Het is repetitief om van hen te verwachten dat ze dat doen dezelfde fout die we zagen in eerdere ‘AI-first’- of ‘cloud-native’-verhalenwaar infrastructuurambitie werd aangezien voor strategische noodzaak.
Wat er feitelijk zal gebeuren is subtieler en krachtiger: wereldmodellen zullen blijven bestaan een nieuwe abstractielaag in de enterprise-stackgebouwd op gedeelde platforms, op dezelfde manier als databases, ERP’s en cloudanalyses dat vandaag de dag zijn.
De infrastructuur zal worden gedeeld. Het begrip zal dat niet doen.
Waarom platforms wereldmodellen alomtegenwoordig zullen maken
Leuk vinden cloudplatforms democratiseerden de toegang tot grootschalige computersZullen nieuwe AI-platforms wereldmodellering toegankelijk maken zonder dat bedrijven de stapel opnieuw hoeven uit te vinden? Ze zullen zich bezighouden met simulatiemotoren, trainingspijplijnen, integratie met sensoren en systemen, en het zware rekenwerk – precies de richting die al zichtbaar is in versterkend leren, robottechnologieEn industriële AI-platforms.
Dit maakt wereldmodellen niet tot commoditisme. Het doet het tegenovergestelde.
Wanneer de platformlaag wordt gesplitst, beweegt de differentiatie naar boven. Bedrijven concurreren niet op wie de hardware bezit, maar op hoe goed hun modellen de werkelijkheid weerspiegelen: welke variabelen ze bevatten, hoe ze beperkingen coderen, hoe feedbackloops worden ontworpen en hoe snel voorspellingen worden gecorrigeerd als de wereld het er niet mee eens is.
Twee bedrijven kunnen op hetzelfde platform draaien en toch met radicaal verschillende niveaus van begrip opereren.
Van taalkundige intelligentie naar operationele intelligentie
LLM’s hebben de adoptie van AI bevorderd omdat ze taalkundige intelligentie universeel hebben gemaakt. Maar Puur op tekst gebaseerde systemen ontberen een diepere contextuele verankering, causaal redeneren en temporeel begrip, beperkingen die goed gedocumenteerd zijn in onderzoek naar funderingsmodellen. Wereldmodellen zullen dit weer gladstrijken door context, causaliteit en tijd opnieuw te introduceren, precies de eigenschappen die ontbreken in puur op tekst gebaseerde systemen.
In de logistiek zal het voordeel bijvoorbeeld niet voortkomen uit het vragen aan een chatbot over supply chain-optimalisatie. Het zal afkomstig zijn een model wie begrijpt het hoe vertragingen zich voortplanten, hoe voorraadbeslissingen interageren met de variabiliteit van de vraag, en hoe kleine veranderingen in de loop van weken of maanden door het systeem stromen.
Waar concurrentievoordeel daadwerkelijk zal bestaan
De echte differentiatie zal epistemisch zijn en niet infrastructureel.
Het zal afkomstig zijn hoe gedisciplineerd een bedrijf is op het gebied van datakwaliteithoe streng is het sluit feedbackloops tussen voorspelling en uitkomst (Onthoud deze zin: Feedback is alles wat je nodig hebt), en hoe goed organisatorische prikkels aansluiten bij leren in plaats van bij narratief gemak. Wereldmodellen belonen bedrijven die bereid zijn zich te laten corrigeren door de realiteit straffen degenen die dat niet zijn.
Platforms zullen enorm belangrijk zijn. Maar platforms standaardiseren alleen de mogelijkheden, niet de kennis. Gedeelde infrastructuur biedt geen gedeeld begrip: twee bedrijven kunnen op dezelfde cloud draaien, hetzelfde AI-platform gebruiken, zelfs dezelfde onderliggende technieken implementeren, en toch tot radicaal verschillende resultaten komen omdat begrip niet is ingebed in de infrastructuur. Dit blijkt uit de manier waarop een bedrijf zijn eigen realiteit modelleert.
Inzicht zit hogerop in de keuzes die platforms niet voor je kunnen maken: welke variabelen er toe doen, welke afwegingen reëel zijn, welke beperkingen bindend zijn, wat telt als succes, hoe feedback wordt verwerkt en hoe fouten worden opgelost. Een platform kan je een wereldmodel laten bouwen, maar het kan je niet vertellen wat jouw wereld eigenlijk is.
Zie het zo: niet alle bedrijven die SAP gebruiken, hebben hetzelfde operationele inzicht. Niet elk bedrijf dat op AWS draait, heeft dezelfde analytische verfijning. De infrastructuur wordt gedeeld; het mentale model is dat niet. Hetzelfde zal gelden voor wereldmodellen.
Platforms maken wereldmodellen mogelijk. Begrip maakt ze waardevol.
De volgende enterprise AI-stack
In de volgende fase van kunstmatige intelligentie zal het concurrentievoordeel niet voortkomen uit het bouwen van eigen infrastructuur. Het zal voortkomen uit het bouwen van betere modellen van de werkelijkheid bovenop platforms die wereldmodellering alomtegenwoordig maken.
Het is een veel veeleisender uitdaging dan het kopen van rekenkracht. En het is een probleem dat geen enkel snel engineeringbedrijf kan oplossen.



