AI is niet langer slechts een cascade van algoritmen die zijn getraind op grote hoeveelheden gegevens. Het is een fysiek en infrastructureel fenomeen geworden, waarvan de toekomst niet zal worden bepaald door doorbraken, maar door de harde realiteit van macht, geografie, regulering en de aard van intelligentie zelf. Bedrijven die dit niet kunnen zien, zullen verblind worden.
Datacenters waren ooit de steriele achterkamer van het internet: belangrijk maar onzichtbaar. Tegenwoordig zijn zij het kloppende hart van generatieven AIde fysieke motoren die grote taalmodellen (LLM’s) mogelijk maken. Maar wat als die motoren, en de modellen die ze aandrijven, op beperkingen stuiten die niet kunnen worden opgelost met meer kapitaal, meer datacenters of krachtigere chips?
In 2025 en in 2026, gemeenschappen in de VS hebben zich verzet tegen de bouw van nieuwe datacenters. In Springfield, Ohio; In Loudoun County, Virginia en elders hebben lokale bewoners en functionarissen bezwaar gemaakt tegen het idee van enorme faciliteiten die enorme hoeveelheden elektriciteit verbruiken, wijken ontwrichten en de toch al overbelaste elektriciteitsnetten onder druk zetten. Deze conflicten staan niet op zichzelf. Ze zijn een signaal, een structureel wrijvingspunt in de expansie van de AI-economie.
Tegelijkertijd waarschuwen nutsbedrijven voor een dreigende botsing tussen de energiebehoefte van AI en de kosten van de energie-infrastructuur. Verschillende staten overwegen en pleiten voor hogere energietarieven voor data-intensieve activiteiten het enorme energieverbruik van AI-datacenters verandert de economie van de elektriciteitsdistributie, vaak ten koste van de gewone consument.
Deze wrijving tussen lokale oppositie tegen datacenters, de fysieke grenzen van het energienetwerk en de politieke druk op nutsvoorzieningen is meer dan een planningsgeschil. Het onthult een diepere waarheid: De ernstigste beperking van AI is niet de algoritmische vindingrijkheid, maar de fysieke realiteit.
Wanneer de realiteit de AI-droom binnendringt
Het dominante verhaal in de technologie is al jaren dat meer data en grotere modellen gelijk staan aan betere intelligentie. De logica was verleidelijk: schaal de trainingsgegevens op, schaal de rekenkracht op en er zal intelligentie ontstaan. Maar deze logica gaat ervan uit dat drie dingen waar zijn:
- Data kunnen altijd op grote schaal worden verzameld en verwerkt.
- Datacenters kunnen worden gebouwd waar ze nodig zijn.
- Op taal gebaseerde modellen kunnen dienen als proxy’s voor het begrijpen van de wereld.
De eerste veronderstelling is wankel. De tweede is het geconfronteerd worden met politieke en fysieke weerstand. Het derde, dat alleen taal de werkelijkheid kan modelleren, is rustig ontrafelen.
Grote taalmodellen worden getraind op enorme corpora van menselijke tekst. Maar die tekst is geen transparante weerspiegeling van de werkelijkheid: het is een distillatie van percepties, vooroordelen, weglatingen en verkeerde interpretaties, gefilterd door menselijk taalgebruik. Een deel ervan is nuttig. Een groot deel ervan is gedeeltelijk, anekdotisch of volkomen verkeerd. Naarmate deze modellen groeien, groeien ook hun trainingsgegevens de lens waardoor zij de wereld interpreteren. Maar die lens is inherent defect.
Dit is van belang omdat taal geen realiteit is: het is een representatie van individuele en collectieve verhalen. Een taalmodelleerling verspreiding van talenniet de causale structuur van gebeurtenissen, niet de fysica van de wereld, niet de zintuiglijke rijkdom van geleefde ervaringen. Deze beperking zal duidelijk worden naarmate AI wordt doorgevoerd in domeinen waar contextueel begrip van de wereld, en niet alleen tekstpatronen, van cruciaal belang is voor prestaties, veiligheid en bruikbaarheid in de echte wereld.
Een structurele crisis op komst
We naderen een vreemde paradox: juist het succes van op taal gebaseerde AI leidt tot structurele veroudering ervan.
Terwijl organisaties miljarden investeren in generatieve AI-infrastructuur, doen ze dit in de veronderstelling dat grotere modellen, meer parameters en grotere datasets betere resultaten zullen blijven opleveren. Maar deze veronderstelling wordt tegengesproken door drie nieuwe grenzen:
- Energie- en locatiebeperkingen: Nu datacenters te maken krijgen met weerstand vanuit de gemeenschap en netwerkbeperkingen, zal de uitbreiding van de AI-computercapaciteit vertragen, vooral in regio’s zonder overtollige energie en sterke planningssystemen.
- Regelgevende wrijving: Staten en landen zullen het elektriciteitsverbruik, de uitstoot van datacentra en het landgebruik steeds meer reguleren, waardoor nieuwe kosten en obstakels voor de kunstmatige intelligentie-infrastructuur ontstaan.
- Cognitieve beperkingen van LLM’s: Modellen die op tekst zijn getraind, bereiken slechts een plafond voor echt begrip. De volgende echte doorbraken op het gebied van kunstmatige intelligentie zullen modellen vereisen die leren van rijkere, multimodale interacties uit echte omgevingen, sensorische gegevens en gestructureerde causale feedback, en niet alleen corpora van tekst. De taal alleen zal geen dieper inzicht in de machine ontsluiten.
Dit is geen speculatieve zorg. We zien het in de discrepanties in de LLM’s van vandaag: vertrouwen aan hun schuld, geworteld in oude gegevensEn niet in staat om te redeneren over de fysieke of causale aspecten van de werkelijkheid. Dit zijn geen fouten: dat zijn ze structurele beperkingen.
Waarom dit belangrijk is voor de bedrijfsstrategie
CEO’s en managers die AI-leiderschap blijven gelijkstellen aan grotere modellen en meer datacentercapaciteit, maken een fundamentele strategische fout. De toekomst van AI zal niet worden bepaald door hoe veel rekenkracht die je hebt, maar weet hoe goed je integreert intelligentie met de fysieke wereld.
Industrieën zoals robotica, autonome voertuigen, medische diagnostiek, klimaatmodellering en industriële automatisering vragen om modellen die kunnen redeneren over causaliteit, omgevingen kunnen aanvoelen en kunnen leren van ervaringen, niet alleen van taalpatronen. De winnaars op deze domeinen zullen degenen zijn die investeren in hybride systemen die taal combineren met perceptie, belichaming en gegronde interactie.
Conclusie: de werkelijkheid bijt terug
Het verhaal dat AI een oneindige grens is, is zowel voor investeerders, journalisten als technologen handig geweest. Maar zoals bij alle krachtige verhalen struikelt het uiteindelijk de harde muur van de werkelijkheid. Datacenters lopen tegen politieke en energiegrenzen aan. Modellen die alleen op taal gebaseerd zijn, tonen hun grenzen. En de veronderstelling dat schaal alle problemen oplost, doet de fundamenten wankelen.
Het volgende hoofdstuk van AI zal niet gaan over wie het grootste model bouwt. Het zal gaan over wie de wereld in al zijn fysieke, causale en lichamelijke complexiteit begrijpt, en systemen bouwt die dat ook zijn. geworteld in de werkelijkheid.
Innovatie op het gebied van kunstmatige intelligentie zal steeds vaker niet worden gemeten aan de hand van de grootte van het datacenter of het aantal parameters, maar aan de mate waarin machines de werkelijke wereld waarnemen, ermee omgaan en erover redeneren.


