In vandaag AI ras worden doorbraken niet langer gemeten in jaren – of zelfs maanden – maar in weken.
De uitgave van Opus 4.6 iets meer dan twee weken geleden was een belangrijk moment voor de maker, Anthropic, die op een aantal gebieden geavanceerde prestaties leverde. Maar binnen een week had de Chinese concurrent Z.ai dat wel uitgegeven zijn eigen Opus-achtige model, de GLM-5. (Er is geen suggestie dat GLM-5 op enigerlei wijze gebruik maakt van of leent van Opus.) Veel op sociale media noemde het -een prijs verlagen Opus-alternatief.
Maar de voorsprong van Z.ai duurde ook niet lang. Net toen Anthropic werd ondermijnd door de release van GLM-5, werd GLM-5 snel gedownload, gecomprimeerd en heruitgegeven in een versie die lokaal zou kunnen draaien zonder internettoegang.
Er zijn beschuldigingen geuit over de manier waarop AI-bedrijven de prestaties van hun concurrenten kunnen evenaren en vervolgens overtreffen – vooral hoe Chinese AI-bedrijven binnen enkele dagen of weken modellen kunnen uitbrengen die met de Amerikaanse concurreren. Google heeft lang geklaagd over de risico’s van destillatie, waarbij bedrijven modellen voorzien van aanwijzingen die zijn ontworpen om interne redeneerpatronen en logica te extraheren door enorme responsdatasets te genereren die vervolgens worden gebruikt om goedkopere kloonmodellen te trainen. Eén acteur heeft het Gemini AI-model van Google naar verluidt meer dan 100.000 keer gevraagd om de geheimen te ontrafelen van wat het model zo krachtig maakt.
“Ik denk dat de gracht kleiner wordt”, zegt Shayne Longpre, een promovendus aan het Massachusetts Institute of Technology wiens onderzoek zich richt op AI-beleid.
De verschuiving vindt zowel plaats in de snelheid van releases als in de aard van de verbeteringen. Longpre beweert dat de marginale kloof tussen de beste gesloten modellen en alternatieven met open gewicht drastisch kleiner wordt. “De kloof tussen dat en volledig open-source- of open-weight-modellen bedraagt ongeveer drie tot zes maanden”, legt hij uit. wijst op onderzoek van non-profit onderzoeksorganisatie Epoch AI-trackingmodelontwikkeling.
De reden voor de steeds kleiner wordende kloof is dat een groot deel van de vooruitgang nu voortkomt uit een modelschip. Longpre beschrijft bedrijven die “op een andere manier versterkingsleren doen of deze systemen verfijnen, of ze meer testtijdredenen geven, of ze langere contextvensters laten hebben” – waardoor de aanpassingsperiode veel korter wordt, “in plaats van een nieuw model helemaal opnieuw te moeten trainen”, zegt hij.
Elk van deze iteratieve verbeteringen levert snelheidsvoordelen op. “Ze brengen elke week dingen naar buiten met al deze varianten”, zegt hij. “Het zijn net patches voor reguliere software.”
Maar Amerikaanse AI-bedrijven, die de neiging hebben om veel van deze ontwikkelingen te pionieren, zijn steeds uitgesprokener geworden tegen deze praktijk. OpenAI heeft zogenaamd dat DeepSeek concurrerende systemen trainde door de output van Amerikaanse modellen te distilleren in een memo aan Amerikaanse wetgevers.
Zelfs als niemand in de strikte zin van het woord ‘stelt’, kopieert het open ecosysteem snel technieken die effectief blijken in grensmodellen.
De definitie van wat ‘open’ betekent in modellicenties is gedeeltelijk de oorzaak, zegt Thibault Schrepel, universitair hoofddocent rechten aan de Vrije Universiteit Amsterdam, die concurrentie in funderingsmodellen bestudeert. “Heel vaak horen we dat een systeem wel of niet open source is”, zegt hij. “Ik denk dat het zeer beperkt is als een manier om te begrijpen wat wel of niet open source is.”
Het is belangrijk om de feitelijke voorwaarden van deze licenties te onderzoeken, voegt Schrepel toe. “Als je goed kijkt naar de licenties voor alle modellen, beperken ze feitelijk veel wat je kunt doen met wat zij open source noemen”, zegt hij. Meta’s Bel 3 licentiebevat bijvoorbeeld een trigger voor zeer grote services, maar niet voor kleinere. “Als je het bij meer dan 700 miljoen gebruikers uitrolt, dan moet je een licentie aanvragen”, zegt Schrepel. Het tweedelige systeem kan grijze gebieden creëren waar twijfelachtige praktijken kunnen voorkomen.
Ter compensatie zal de markt waarschijnlijk uiteen gaan lopen, zegt Longpre van MIT. Aan de ene kant zullen er goedkope, steeds capabelere, zelfgehoste modellen zijn voor alledaagse taken; aan de andere kant premium grenssystemen voor het zwaardere werk waar veel op het spel staat. “Ik denk dat de bodem aan het stijgen is”, voegt hij eraan toe, terwijl hij voorspelt dat er “ook veel meer betaalbare, zelfgehoste, zelfgehoste modellen voor algemene doeleinden van steeds kleinere afmetingen zullen komen.” Maar hij gelooft dat gebruikers nog steeds zullen “navigeren naar het gebruik van OpenAI-, Google- en Anthropic-modellen” voor belangrijk, bekwaam werk.
Het kan onmogelijk zijn om destillatie volledig te voorkomen, voegt Longpre toe. Hij gelooft dat het onvermijdelijk is dat wanneer een nieuw model wordt uitgebracht, concurrenten zullen proberen de beste elementen eruit te halen en te kopiëren. “Ik denk dat het uiteindelijk een onvermijdelijk probleem is”, zegt hij.


