De Chinese AI-startup Zhupai, ook bekend als z.ai, is deze week terug met een opvallend nieuw grensoverschrijdend groottaalmodel: GLM-5.
Het is het nieuwste in de doorlopende en consistent indrukwekkende GLM-serie van z.ai, heeft een open source MIT-licentie – perfect voor implementatie in ondernemingen – en bereikt, als een van de opmerkelijke prestaties, een recordaantal hallucinaties op de onafhankelijke markt. Kunstmatige analyse-intelligentie-index v4.0.
Met een score van -1 op de AA-Omniscience Index – wat neerkomt op een enorme verbetering van 35 punten ten opzichte van zijn voorganger – leidt GLM-5 nu de hele AI-industrie, inclusief Amerikaanse concurrenten zoals Google, OpenAI en Anthropic, op het gebied van kennisbetrouwbaarheid door te weten wanneer hij moet afzien van het produceren van informatie.
Naast de redenering is GLM-5 gebouwd voor kenniswerk met een hoog nut. Het heeft ingebouwde “Agent Mode”-mogelijkheden waarmee het onbewerkte aanwijzingen of bronmateriaal rechtstreeks kan omzetten in professionele kantoordocumenten, inclusief kant-en-klare documenten. .docx, .pdfEn .xlsx bestanden.
Of het nu gaat om het genereren van gedetailleerde financiële rapporten, voorstellen voor sponsoring van universiteiten of complexe spreadsheets, GLM-5 levert resultaten in real-world formaten die rechtstreeks in zakelijke workflows kunnen worden geïntegreerd.
Het heeft ook een disruptieve prijs van ongeveer $0,80 per miljoen inputtokens en $2,56 per miljoen outputtokens, ongeveer zes keer goedkoper dan eigen concurrenten zoals Claude Opus 4.6, waardoor geavanceerde agenttechnologie kosteneffectiever is dan ooit tevoren. Dit is wat zakelijke besluitvormers nog meer moeten weten over het model en de training ervan.
Technologie: schaalvergroting voor de efficiëntie van agenten
De kern van GLM-5 is een enorme sprong in ruwe parameters. Het model schaalt van de 355B-parameters in GLM-4.5 naar maar liefst 744B-parameters, met 40B actief per token in de Mixture-of-Experts (MoE)-architectuur. Deze groei wordt ondersteund door een toename van pre-trainingsgegevens naar 28,5T tokens.
Om trainingsinefficiënties van deze omvang aan te pakken, ontwikkelde Zai “slijm”, een nieuwe infrastructuur voor asynchrone versterkingsleren (RL).
Traditionele RL heeft vaak last van ‘long-tail’-knelpunten; Slim doorbreekt deze lockstep door trajecten onafhankelijk te laten genereren, waardoor de fijnmazige iteraties mogelijk worden die nodig zijn voor complex agentgedrag.
Door optimalisaties op systeemniveau zoals Active Partial Rollouts (APRIL) te integreren, pakt slime de generatieknelpunten aan die doorgaans meer dan 90% van de RL-trainingstijd in beslag nemen, waardoor de iteratiecyclus voor complexe agenttaken aanzienlijk wordt versneld.
Het ontwerp van het raamwerk draait om een driedelig modulair systeem: een krachtige trainingsmodule aangedreven door Megatron-LM, een implementatiemodule die SGLang en aangepaste routers gebruikt om data met hoge doorvoer te genereren, en een gecentraliseerde databuffer die snelle initialisatie en implementatieopslag beheert.
Door adaptieve, verifieerbare omgevingen en multi-turn compilatie-feedbacklussen mogelijk te maken, biedt slime de robuuste basis met hoge doorvoer die nodig is om AI over te zetten van eenvoudige chat-interacties naar rigoureuze systeemontwikkeling met een lange horizon.
Om de implementatie beheersbaar te houden, integreert GLM-5 DeepSeek Sparse Attention (DSA), waardoor een contextcapaciteit van 200K behouden blijft terwijl de kosten drastisch worden verlaagd.
Kenniswerk van begin tot eind
Zai produceert de GLM-5 als een “kantoor” -tool voor het AGI-tijdperk. Terwijl eerdere modellen zich concentreerden op fragmenten, is de GLM-5 gebouwd om kant-en-klare documenten te leveren.
Het kan prompts zelfstandig omzetten in geformatteerde .docx-, .pdf- en .xlsx-bestanden – van financiële rapporten tot sponsorvoorstellen.
In de praktijk betekent dit dat het model doelen op hoog niveau kan opsplitsen in uitvoerbare subtaken en ‘Agentic Engineering’ kan uitvoeren, waarbij mensen kwaliteitspoorten definiëren terwijl de AI de uitvoering afhandelt.
Hoge prestaties
Volgens de benchmarks van GLM-5 is het het nieuwe, krachtigste open source-model ter wereld Kunstmatige analysedie de Chinese rivaal overtreft Moonshot’s nieuwe Kimi K2.5 die slechts twee weken geleden werd vrijgegeven, waaruit blijkt dat Chinese AI-bedrijven de veel beter uitgeruste westerse rivalen bijna hebben ingehaald.
Volgens z.ai’s eigen materialen die vandaag worden gedeeld, scoort de GLM-5 op verschillende belangrijke benchmarks dichtbij de stand van de techniek:
SWE-bank geverifieerd: De GLM-5 behaalde een score van 77,8, beter dan de Gemini 3 Pro (76,2) en dichtbij de Claude Opus 4.6 (80,9).
Verkoopbalie 2: In een simulatie van het runnen van een bedrijf stond GLM-5 op nummer 1 onder open source-modellen met een eindsaldo van $ 4.432,12.
Naast prestaties ondermijnt de GLM-5 op agressieve wijze de markt. Live op OpenRouter vanaf 11 februari 2026, kost het ongeveer $0,80-$1,00 per miljoen inputtokens en $2,56-$3,20 per miljoen outputtokens. Het valt in het middensegment vergeleken met andere toonaangevende LLM’s, maar op basis van zijn topprestaties is het wat je een ‘stelen’ zou kunnen noemen.
|
Model |
Invoer (per 1 miljoen tokens) |
Uitvoer (per 1 miljoen tokens) |
Totale kosten (1 miljoen in + 1 miljoen uit) |
Bron |
|
Qwen3 Turbo |
$ 0,05 |
$ 0,20 |
$ 0,25 |
|
|
Grok 4.1 Snel (redeneren) |
$ 0,20 |
$ 0,50 |
$ 0,70 |
|
|
Grok 4.1 Snel (niet redenerend) |
$ 0,20 |
$ 0,50 |
$ 0,70 |
|
|
deepseek-chat (V3.2-Exp) |
$ 0,28 |
$ 0,42 |
$ 0,70 |
|
|
diepgaande redenen (V3.2-Exp) |
$ 0,28 |
$ 0,42 |
$ 0,70 |
|
|
Gemini 3 Flash-voorbeeld |
$ 0,50 |
$ 3,00 |
$ 3,50 |
|
|
Kimi-k2.5 |
$ 0,60 |
$ 3,00 |
$ 3,60 |
|
|
GLM-5 |
$ 1,00 |
$ 3,20 |
$ 4,20 |
|
|
ERNIE 5.0 |
$ 0,85 |
$ 3,40 |
$ 4,25 |
|
|
Claude Haiku 4.5 |
$ 1,00 |
$ 5,00 |
$ 6,00 |
|
|
Qwen3-Max (23-01-2026) |
$ 1,20 |
$ 6,00 |
$ 7,20 |
|
|
Gemini 3 Pro (≤200K) |
$ 2,00 |
$ 12,00 |
$ 14,00 |
|
|
GPT-5.2 |
$ 1,75 |
$ 14,00 |
$ 15,75 |
|
|
Claude Sonnet 4.5 |
$ 3,00 |
$ 15,00 |
$ 18,00 |
|
|
Gemini 3 Pro (>200K) |
$ 4,00 |
$ 18,00 |
$ 22,00 |
|
|
Werk afsluiten 4.6 |
$ 5,00 |
$ 25,00 |
$ 30,00 |
|
|
GPT-5.2 Pro |
$ 21,00 |
$ 168,00 USD |
$ 189,00 USD |
Dit is ongeveer 6 keer goedkoper op input en bijna 10 keer goedkoper op output dan de Claude Opus 4.6 ($5/$25). Deze release bevestigt de geruchten dat Zhipu AI achter “Pony Alpha” zat, een stealth-model dat eerder de codeerbenchmarks op OpenRouter verpletterde.
Ondanks de hoge benchmarks en lage kosten zijn niet alle early adopters enthousiast over het model, waarbij ze opmerken dat de hoge prestaties niet het hele verhaal vertellen.
Lukas Petersson, medeoprichter van de op beveiliging gerichte autonome AI-protocolstartup Andon Labs, merkte X op: “Na urenlang GLM-5-tracks te hebben gelezen: een ongelooflijk effectief model, maar veel minder situationeel. Bereikt doelen via agressieve tactieken, maar redeneert niet over de situatie of exploiteert ervaringen. Dat is eng. Zo krijg je paperclip-maximalisatie.”
“Paperclip-maximalisatie” verwijst naar een hypothetische situatie beschreven door Oxford-filosoof Nick Bostrom in 2003waar een kunstmatige intelligentie of een andere autonome creatie per ongeluk leidt tot een apocalyptisch scenario of het uitsterven van de mens door een ogenschijnlijk goedaardige instructie te volgen – zoals het maximaliseren van het aantal geproduceerde paperclips – in extreme mate, waarbij alle middelen die nodig zijn voor mensen (of ander leven) worden omgeleid, of anderszins het leven onmogelijk wordt gemaakt door zijn toewijding aan het vervullen van dat ogenschijnlijk goedaardige doel.
Moet uw bedrijf GLM-5 gebruiken?
Bedrijven die willen ontsnappen aan de lock-in van een leverancier zullen de MIT-licentie en de beschikbaarheid op open schaal van de GLM-5 een aanzienlijk strategisch voordeel vinden. In tegenstelling tot closed source-concurrenten die informatie achter bedrijfseigen muren bewaren, stelt GLM-5 organisaties in staat hun eigen informatie op grensniveau te hosten.
Adoptie verloopt niet zonder wrijving. De enorme schaal van de GLM-5-744B-parameters vereist een enorme hardwarevloer die mogelijk onbereikbaar is voor kleinere bedrijven zonder aanzienlijke on-premise cloud- of GPU-clusters.
Beveiligingsmanagers moeten de geopolitieke implicaties van een vlaggenschipmodel van een in China gevestigd laboratorium afwegen, vooral in gereguleerde sectoren waar de locatie en herkomst van gegevens streng worden gecontroleerd.
Bovendien introduceert de verschuiving naar meer autonome AI-agenten nieuwe bestuursrisico’s. Terwijl modellen van ‘chatten’ naar ‘werken’ gaan, beginnen ze autonoom in apps en bestanden te werken. Zonder de robuuste agentspecifieke machtigingen en mens-in-de-loop-kwaliteitspoorten die door bedrijfsdatamanagers zijn ingesteld, neemt het risico op autonome mislukkingen exponentieel toe.
Uiteindelijk is de GLM-5 een ‘aankoop’ voor organisaties die de eenvoudige copiloten zijn ontgroeid en klaar zijn om een echt autonoom kantoor te bouwen.
Het is bedoeld voor ingenieurs die een verouderde backend moeten herstructureren of een ‘zelfherstellende’ pijplijn nodig hebben die niet slaapt.
Terwijl westerse laboratoria blijven optimaliseren voor ‘denken’ en diepgang van redeneren, optimaliseert Zai voor uitvoering en schaal.
Bedrijven die vandaag de dag GLM-5 gebruiken, kopen niet alleen een goedkoper model; ze wedden op een toekomst waarin de meest waardevolle AI degene is die het project kan voltooien zonder dat er twee keer om gevraagd wordt.



