Home Nieuws Qwen3-Coder-Next biedt vibe-codeerders een krachtig open source, ultraslank model met 10x hogere...

Qwen3-Coder-Next biedt vibe-codeerders een krachtig open source, ultraslank model met 10x hogere doorvoer voor repo-taken

1
0
Qwen3-Coder-Next biedt vibe-codeerders een krachtig open source, ultraslank model met 10x hogere doorvoer voor repo-taken

Het Qwen-team van AI-onderzoekers van de Chinese e-commercegigant Alibaba is het afgelopen jaar uitgegroeid tot een van de wereldleiders op het gebied van open source AI-ontwikkeling. een groot aantal krachtige grote taalmodellen en gespecialiseerde multimodale modellen die de prestaties van eigen Amerikaanse leiders zoals OpenAI, Anthropic, Google en xAI benaderen en in sommige gevallen zelfs overtreffen.

Nu is het Qwen-team deze week weer terug met een meeslepende release die past bij de “vibe coding”-waanzin die de afgelopen maanden is ontstaan: Qwen3-Coder-Volgendeeen gespecialiseerd model met 80 miljard parameters, ontworpen om de prestaties van elite-agenten te leveren binnen een lichtgewicht actieve voetafdruk.

Het is uitgebracht onder een tolerante Apache 2.0-licentie die commercieel gebruik door zowel grote bedrijven als indie-ontwikkelaars mogelijk maakt, met modelgewichten beschikbaar op Hugging Face in vier varianten en één technisch rapport beschrijft enkele van zijn trainingsaanpak en innovaties.

De release markeert een grote escalatie in de wereldwijde wapenwedloop voor de ultieme codeerassistent, na een week waarin de ruimte is geëxplodeerd met nieuwkomers. Van de enorme efficiëntiewinsten van Anthropics Claude Code harnas naar spraakmakende lancering van de OpenAI Codex-app en de snelle acceptatie door de gemeenschap van open source-frameworks zoals Open Klauwhet competitieve landschap is nog nooit zo druk geweest.

In deze omgeving waarin veel op het spel staat, houdt Alibaba niet alleen gelijke tred, maar probeert het ook een nieuwe standaard te zetten voor open-weight intelligence.

Voor LLM-beslissers vertegenwoordigt Qwen3-Coder-Next een fundamentele verschuiving in de economie van kunstmatige intelligentie. Hoewel het model in totaal 80 miljard parameters bevat, maakt het gebruik van een uiterst schaarse Mixture-of-Experts (MoE)-architectuur die slechts 3 miljard parameters per voorwaartse doorgang activeert.

Dit ontwerp maakt het mogelijk om redeneermogelijkheden te bieden die kunnen wedijveren met enorme propriëtaire systemen, terwijl de lage implementatiekosten en hoge doorvoer van een lichtgewicht lokaal model behouden blijven.

Het knelpunt oplossen met lange samenhang

De belangrijkste technische doorbraak achter de Qwen3-Coder-Next is een hybride architectuur die speciaal is ontworpen om de kwadratische schalingsproblemen te omzeilen waar traditionele transformatoren mee kampen.

Naarmate de contextvensters groter worden – en dit model 262.144 tokens ondersteunt – worden traditionele aandachtsmechanismen computationeel onbetaalbaar.

Standaardtransformatoren hebben last van een “geheugenmuur” waarbij de kosten voor het verwerken van context kwadratisch toenemen met de lengte van de reeks. Qwen lost dit op door Gated DeltaNet te combineren met Gated Attention.

Gated DeltaNet fungeert als een lineair complexiteitsalternatief voor standaard softmax-aandacht. Het stelt het model in staat de status gedurende het tokenvenster van een kwart miljoen te behouden zonder de exponentiële latentieboetes die kenmerkend zijn voor redeneren met een lange horizon.

In combinatie met de uiterst schaarse MoE is het resultaat een theoretisch 10x hogere doorvoer voor taken op magazijnniveau vergeleken met compacte modellen met een vergelijkbare totale capaciteit.

Deze architectuur zorgt ervoor dat een agent een volledige Python-bibliotheek of een complex JavaScript-framework kan “lezen” en kan reageren met de snelheid van een 3B-model, maar toch met het structurele begrip van een 80B-systeem.

Om contexthallucinatie tijdens de training te voorkomen, gebruikte het team Best-Fit Packing (BFP), een strategie die de efficiëntie handhaaft zonder de afkapfouten die voorkomen bij traditionele documentaaneenschakeling.

Getraind om agent-first te zijn

‘Volgende’ in de nomenclatuur van het model verwijst naar een fundamenteel scharnierpunt in de trainingsmethodologie. Historisch gezien werden coderingsmodellen getraind op statische code-tekstparen – in wezen een ‘alleen-lezen’-training. Qwen3-Coder-Next werd in plaats daarvan ontwikkeld via een enorme pijplijn voor “agenttraining”.

Het technische rapport beschrijft een synthesepijplijn die 800.000 verifieerbare codeeropdrachten opleverde. Het waren niet alleen fragmenten; het waren real-world scenario’s voor het oplossen van bugs, geëxtraheerd uit GitHub-pull-verzoeken en gecombineerd met volledig uitvoerbare omgevingen.

De trainingsinfrastructuur, bekend als MegaFlow, is een cloud-native orkestratiesysteem gebaseerd op Alibaba Cloud Kubernetes. In MegaFlow wordt elke agenttaak uitgedrukt als een workflow in drie stappen: agentimplementatie, evaluatie en nabewerking. Tijdens de implementatie communiceert het model met een live gecontaineriseerde omgeving.

Als het code genereert die een unit-test niet doorstaat of een container laat crashen, ontvangt het onmiddellijke feedback via tussentijdse training en versterkend leren. Dankzij deze ‘closed-loop’-training kan het model leren van omgevingsfeedback, leren herstellen van fouten en oplossingen in realtime verfijnen.

Productspecificaties omvatten:

  • Ondersteuning voor 370 programmeertalen: Een uitbreiding van 92 in eerdere versies.

  • Tooloproepen in XML-stijl: Een nieuw qwen3_coder-formaat ontworpen voor argumenten met veel tekenreeksen, waardoor het model lange codefragmenten kan uitzenden zonder de geneste aanhalingstekens en kan ontsnappen aan de overhead die typisch is voor JSON.

  • Focus op voorraadniveau: Mid-training werd uitgebreid tot ca. 600 miljard tokens aan gegevens op opslagniveau, wat een grotere impact bleek te hebben voor de afhankelijkheidslogica van meerdere bestanden dan alleen datasets op bestandsniveau.

Specialisatie via expertmodellen

Een belangrijke onderscheidende factor in de Qwen3-Coder-Next-pijplijn is het gebruik van gespecialiseerde expertmodellen. In plaats van één generalistisch model voor alle taken te trainen, ontwikkelde het team domeinspecifieke experts voor webontwikkeling en gebruikerservaring (UX).

De webontwikkelingsexpert richt zich op full-stack-taken zoals UI-constructie en componentsamenstelling. Alle codevoorbeelden zijn weergegeven in een door Playwright beheerde Chromium-omgeving.

Voor React-voorbeelden werd een Vite-server geïnstalleerd om ervoor te zorgen dat alle afhankelijkheden correct werden geïnitialiseerd. Een Vision-Language Model (VLM) beoordeelde vervolgens de weergegeven pagina’s op lay-outintegriteit en UI-kwaliteit.

User Experience Expert is geoptimaliseerd voor naleving van het tooloproepformaat in verschillende CLI/IDE-frameworks zoals Cline en OpenCode. Het team ontdekte dat training met verschillende chatsjablonen voor tools de robuustheid van het model ten aanzien van onzichtbare schema’s op het moment van implementatie aanzienlijk verbeterde.

Zodra deze experts topprestaties hadden geleverd, werden hun vaardigheden teruggedestilleerd in het enkele 80B/3B MoE-model. Dit zorgt ervoor dat de lichtgewicht implementatieversie de genuanceerde kennis van veel grotere lerarenmodellen behoudt.

Overtreft benchmarks en biedt tegelijkertijd hoge beveiliging

De resultaten van deze gespecialiseerde training zijn duidelijk zichtbaar in de concurrentiekracht van het model ten opzichte van industriële reuzen. In benchmarkevaluaties uitgevoerd met behulp van het SWE-Agent-scaffold, toonde Qwen3-Coder-Next uitzonderlijke efficiëntie aan in termen van de actieve parameteropsomming.

Op SWE-Bench Verified behaalde het model een score van 70,6%. Deze prestaties zijn zeer competitief als ze naast aanzienlijk grotere modellen worden geplaatst; het presteert beter dan DeepSeek-V3.2, dat 70,2% scoort, en slechts iets achterblijft bij de GLM-4.7-score van 74,2%.

Qwen3-Coder-Next-benchmarks. Krediet: Alibaba Qwen

Cruciaal is dat het model een robuust inherent veiligheidsbewustzijn demonstreert. Op SecCodeBench, dat het vermogen van een model om kwetsbaarheden te repareren evalueert, presteerde Qwen3-Coder-Next beter dan Claude-Opus-4.5 in scenario’s voor het genereren van code (61,2% versus 52,5%).

Qwen3-Coder-Next SecCodeBench-vergelijkingstabel voor benchmarkresultaten

Qwen3-Coder-Next SecCodeBench-vergelijkingstabel voor benchmarkresultaten. Krediet: Alibaba Qwen

Opvallend is dat het bedrijf hoge scores behield, zelfs als het geen beveiligingstips kreeg, wat aangeeft dat het tijdens de trainingsfase voor agenten met 800.000 taken heeft geleerd te anticiperen op veelvoorkomende beveiligingsvalkuilen.

In meertalige meertalige beveiligingsevaluaties demonstreerde het model ook een competitief evenwicht tussen functionele en veilige codegeneratie, waarbij het beter presteerde dan zowel DeepSeek-V3.2 als GLM-4.7 op de CWEval-benchmark met een func-sec@1-score van 56,32%.

Het uitdagen van de propriëtaire reuzen

De release vertegenwoordigt de grootste uitdaging voor de dominantie van closed source-coderingsmodellen in 2026. Door te bewijzen dat een model met slechts 3B actieve parameters net zo effectief door de complexiteit van de echte softwaretechnologie kan navigeren als een ‘gigant’, heeft Alibaba de codering van agenten effectief gedemocratiseerd.

“Aha!” Het moment voor de sector is het besef dat de lengte van de context en de doorvoer de twee belangrijkste hefbomen zijn voor het succes van agenten.

Een model dat binnen enkele seconden 262.000 tokens van een repository kan verwerken en zijn eigen werk in een Docker-container kan verifiëren, is fundamenteel nuttiger dan een groter model dat te traag of te duur is om te repliceren.

Zoals het Qwen-team in hun rapport concludeert: “Het opschalen van agenttraining, en niet alleen de modelgrootte, is een belangrijke drijfveer voor het bevorderen van de mogelijkheden van codeeragenten in de echte wereld”. Met Qwen3-Coder-Next is het tijdperk van het ‘mammoet’-coderingsmodel mogelijk voorbij en vervangen door ultrasnelle, gestroomlijnde experts die zo diep kunnen nadenken als ze maar kunnen.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in