Home Nieuws Dit is de centrale architectonische fout van AI

Dit is de centrale architectonische fout van AI

8
0
Dit is de centrale architectonische fout van AI

Geweldige taalmodellen voelen zich intelligent omdat ze vloeiend, zelfverzekerd en op grote schaal spreken. Maar vloeiendheid is geen begrip, en vertrouwen is geen perceptie. Om de echte beperking van vandaag te begrijpen AI systemen helpt het om een ​​idee dat meer dan tweeduizend jaar oud is opnieuw te bekijken.

In de Republiek beschrijft Plato de allegorie van de grot: gevangenen die in een grot zijn vastgeketend, kunnen alleen schaduwen zien die op een muur worden geprojecteerd. Omdat ze de echte objecten die deze schaduwen werpen nog nooit hebben gezien, verwarren ze de schijn met de werkelijkheid en kunnen ze de echte wereld niet ervaren.

Grote taalmodellen leven in een zeer vergelijkbare grot.

LLM’s nemen de wereld niet waar: ze lezen erover

LLM’s zien, horen, raken de werkelijkheid niet en hebben er geen interactie mee. Ze zijn bijna volledig getraind op tekst: boeken, artikelen, berichten, commentaren, transcripties en fragmenten van menselijke expressie verzameld uit de geschiedenis en het internet. Die tekst is hun enige input. Hun enige “ervaring”.

LLM’s “zien” alleen schaduwen: door mensen geproduceerde teksten die de wereld beschrijven. Die teksten zijn hun hele universum. Alles wat een LLM over de werkelijkheid weet, wordt gefilterd door taal, geschreven door mensen met verschillende niveaus van intelligentie, eerlijkheid, vooringenomenheid, kennis en intentie.

Tekst is niet de werkelijkheid: het is een menselijke representatie van de werkelijkheid. Het is gemedieerd, onvolledig, bevooroordeeld en enorm heterogeen, vaak vervormd. Menselijke taal weerspiegelt meningen, misverstanden, culturele blinde vlekken en regelrechte leugens. Boeken en internet bevatten buitengewoon inzicht, maar ook complottheorieën, propaganda, pornografie, misbruik en pure onzin. Als we LLM’s trainen in “alle tekst”, geven we ze geen toegang tot de wereld. We geven ze toegang tot de schaduwen van de mensheid op de muur.

Dit is geen kleine beperking. Dat is de belangrijkste architectonische fout van de huidige AI.

Waarom schaal het probleem niet oplost

De heersende veronderstelling in de AI-strategie is dat schaal alles oplost: meer data, grotere modellen, meer parameters, meer berekeningen. Maar meer schaduwen op de muur staan ​​niet gelijk aan de werkelijkheid.

Omdat LLM’s zijn getraind om het statistisch meest waarschijnlijke volgende woord te voorspellen, blinken ze uit in het produceren van plausibele taal, maar niet in het begrijpen van causaliteit, fysieke beperkingen of gevolgen in de echte wereld. Dit is waarom hallucinaties geen bug zijn die moet worden opgelost, maar een structurele beperking.

Naad Yann LeCun heeft herhaaldelijk betoogd, taal alleen is niet voldoende basis voor intelligentie.

De verschuiving naar wereldmodellen

Dit is de reden waarom de aandacht steeds meer hierop wordt gericht modellen van de wereld: systemen die interne representaties opbouwen van hoe omgevingen werken, leren van interactie en resultaten simuleren voordat ze handelen.

In tegenstelling tot LLM’s zijn wereldmodellen niet beperkt tot tekst. Ze kunnen tijdreeksgegevens, sensorinvoer, feedbackloops, ERP-gegevens, spreadsheets, simulaties en de gevolgen van acties bevatten. In plaats van te vragen “Wat is het meest waarschijnlijke volgende woord?”, stellen ze een veel krachtigere vraag:

Wat zal er gebeuren als we dit doen?”

Hoe het er in de praktijk uitziet

Voor managers is dit geen abstract onderzoeksdebat. Wereldmodellen ontstaan ​​al (vaak zonder als zodanig te worden bestempeld) in domeinen waar taal alleen onvoldoende is.

  • Toeleveringsketens en logistiek: Een taalmodel kan verstoringen samenvatten of rapporten genereren. Een wereldmodel kan simuleren hoe een havensluiting, een stijging van de brandstofprijs of het falen van leveranciers zich via een netwerk voortplant en alternatieve reacties testen voordat er kapitaal wordt vastgelegd.
  • Verzekeringen en risicobeheer: LLM’s kunnen beleid uitleggen of vragen van klanten beantwoorden. Wereldmodellen kunnen leren hoe risico’s zich in de loop van de tijd feitelijk ontwikkelen, extreme gebeurtenissen simuleren en trapsgewijze verliezen inschatten onder verschillende scenario’s, iets wat geen enkel tekstsysteem op betrouwbare wijze kan doen.
  • Productie en bediening: Digitale tweelingen van fabrieken zijn modellen uit de vroege wereld. Ze beschrijven niet alleen processen; ze simuleren de interactie tussen machines, materialen en timing, waardoor bedrijven storingen kunnen voorspellen, de doorvoer kunnen optimaliseren en veranderingen virtueel kunnen testen voordat ze het echte systeem aanraken.

In al deze gevallen is taal nuttig maar onvoldoende. Begrip vereist een model van hoe de wereld zich gedraagt, niet alleen hoe mensen erover praten.

De post-LLM-architectuur

Dit betekent niet dat taalmodellen moeten worden opgegeven. Dit betekent dat ze op de juiste plaats moeten worden geplaatst.

In de volgende fase van AI:

  • LLM’s worden interfaces, copiloten en vertalers
  • Wereldmodellen bieden basis, voorspelling en planning
  • De taal ligt bovenop systemen die leren van de werkelijkheid zelf

In Plato’s allegorie worden de gevangenen niet bevrijd door de schaduwen zorgvuldiger te bestuderen: ze worden bevrijd door zich om te draaien en de bron van die schaduwen te confronteren, en uiteindelijk de wereld buiten de grot.

AI nadert een soortgelijk moment.

De organisaties die dit al vroeg onderkennen, zullen stoppen met het verwarren van vloeiende talen met begrip en zullen gaan investeren in architecturen die hun eigen realiteit modelleren. Deze bedrijven willen niet alleen AI bouwen die overtuigend over de wereld spreekt: ze willen AI bouwen die daadwerkelijk begrijpt hoe het werkt.

Begrijpt uw ​​bedrijf dit? Zal uw bedrijf in staat zijn zijn wereldmodel op te bouwen?

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in