Home Nieuws Het nieuwe eigen AI-model van MiniMax M2.7 is ‘zelfontwikkelend’ en kan 30-50%...

Het nieuwe eigen AI-model van MiniMax M2.7 is ‘zelfontwikkelend’ en kan 30-50% van de onderzoeksworkflow voor versterkend leren uitvoeren

1
0
Het nieuwe eigen AI-model van MiniMax M2.7 is ‘zelfontwikkelend’ en kan 30-50% van de onderzoeksworkflow voor versterkend leren uitvoeren

In de afgelopen jaren is de Chinese AI opgestart MiniMax is een van de meest opwindende geworden op de drukke mondiale AI-markt, en heeft een reputatie opgebouwd voor het leveren van grote taalmodellen op grensniveau (LLM’s) met open source-licenties en, daarvoor, hoogwaardige modellen voor het genereren van AI-video’s (Hallo).

De vrijlating van MiniMax M2.7 vandaag – een nieuwe gepatenteerde LLM die is ontworpen om krachtige AI-agents uit te voeren en als backend voor kabels en tools van derden zoals Claude Code, Kilo Code en OpenClaw – markeert een nieuwe mijlpaal: in plaats van uitsluitend te vertrouwen op door mensen geleide fijnafstemming, heeft MiniMax M2.7 gebruikt om zijn eigen versterkingsleren op te bouwen, te monitoren en te optimaliseren.

Deze beweging in de richting van recursieve zelfverbetering duidt op een verschuiving in de industrie: een toekomst waarin de modellen die we gebruiken zowel de architecten van hun vooruitgang zijn als de producten van menselijk onderzoek. Het model is gecategoriseerd als een tekstmodel dat uitsluitend op redeneren gebaseerd is en dat intelligentie levert die vergelijkbaar is met die van andere toonaangevende systemen, terwijl de kosteneffectiviteit aanzienlijk hoger is.

Maar aangezien M2.7 voorlopig bedrijfseigen is, is dit opnieuw een teken dat Chinese AI-startups – gedurende een groot deel van het afgelopen jaar – vaandeldragers in de wereld van de open source AI frontierwaardoor ze aantrekkelijk worden voor bedrijven wereldwijd vanwege de lage (of geen) kosten en maatwerk – verschuiven de strategie en streven ze meer eigen grensmodellen na, zoals Amerikaanse leiders zoals OpenAI, Google en Anthropic al jaren doen.

MiniMax wordt de tweede Chinese startup die de afgelopen maanden een eigen geavanceerde LLM heeft uitgebracht na z.ai met zijn GLM-5 TurboHet gerucht gaat ook dat het Qwen-team van Alibaba in de nasleep ervan overschakelt op eigen ontwikkeling vertrek van het topmanagement en andere onderzoekers.

Technische prestaties: de zelfevolutielus

Het bepalende kenmerk van de MiniMax M2.7 is zijn rol in zijn eigen creatie. Volgens de documentatie van het bedrijfEerdere versies van het model werden gebruikt om een ​​harnas voor onderzoeksagenten te bouwen dat datapijplijnen, trainingsomgevingen en evaluatie-infrastructuur kon beheren.

MiniMax M2.7 zelfontwikkelend RL-onderzoeksworkflowdiagram. Krediet: MiniMax

Door autonoom loglezen, probleemoplossing en metrische analyse te activeren, M2.7 verzorgde tussen de 30 en 50 procent van zijn eigen ontwikkelingsworkflow.

Dit is niet simpelweg een automatisering van routinetaken; het model optimaliseerde zijn eigen programmeerprestaties door foutpaden te analyseren en codewijzigingen te plannen over iteratieve lussen van 100 ronden of meer.

“We hebben het model bewust getraind om beter te kunnen plannen en de vereisten samen met de gebruiker te verduidelijken”, legt Skyler Miao, hoofd engineering bij MiniMax, uit op het sociale netwerk X. “De volgende stap is een complexere gebruikerssimulator om dit nog verder te brengen.”

Deze mogelijkheid strekt zich uit tot complexe omgevingen via MLE Bank Lite, een reeks machine learning-wedstrijden die zijn ontworpen om autonome onderzoeksvaardigheden te testen.

In deze tests behaalde de M2.7 een medaillepercentage van 66,6 procent prestatieniveau dat overeenkomt met Google’s nieuwe Gemini 3.1 en de huidige high-end benchmarks van Claude Opus 4.6 van Anthropic benadert.

Volgens MiniMax is het doel een transitie naar volledige autonomie in modeltraining en inferentiearchitectuur zonder menselijke tussenkomst.

Prestatieontwikkeling: MiniMax m2.7 vs. m2.5

MiniMax M2.7 benchmarkvergelijkingstabel.

MiniMax M2.7 benchmarkvergelijkingstabel. Krediet: MiniMax

Vergeleken met zijn voorganger, M2,5Het M2.7-model, uitgebracht in februari 2026, laat aanzienlijke winsten zien op het gebied van software-engineering en professionele kantoortaken die veel op het spel staan.

Terwijl M2.5 werd gevierd vanwege de beheersing van meertalige code, is M2.7 ontworpen voor real-world engineering: taken waarvoor causaal redeneren binnen live productiesystemen vereist is.

De belangrijkste resultaten zijn onder meer:

  • Software-engineering: De M2.7 scoorde 56,22 procent op de SWE-Pro-benchmark, wat overeenkomt met het hoogste niveau van wereldwijde concurrenten zoals GPT-5.3-Codex.

  • Professionele kantoorlevering: Op het gebied van documentverwerking behaalde de M2.7 een Elo-score van 1495 op GDPval-AA, wat volgens het bedrijf de hoogste is onder de beschikbare open source-modellen.

  • Vermindering van hallucinaties: Het model scoort plus één op de AA-Omniscience Index, een enorme sprong ten opzichte van de negatieve 40-score die de M2.5 heeft.

  • Hallucinatiepercentage: De M2.7 bereikt een hallucinatiepercentage van 34 procent, wat lager is dan de 46 procent van Claude Sonnet 4.6 en 50 procent van Gemini 3.1 Pro Preview.

  • Systeembegrip: Op Terminal Bench 2 scoorde het model 57,0 procent, wat een diepgaand begrip van complexe operationele logica aantoont in plaats van het genereren van eenvoudige code.

  • Naleving van vaardigheden: Op de MM Claw-evaluatie, die 40 complexe vaardigheden van elk meer dan 2.000 tokens test, handhaafde M2.7 een nalevingspercentage van 97 procent, een aanzienlijke verbetering ten opzichte van de M2.5-basislijn.

  • Intelligentiepariteit: De redeneermogelijkheden van het model worden gelijkwaardig geacht aan die van GLM-5, maar toch worden er 20 procent minder uitvoertokens gebruikt om vergelijkbare resultaten te bereiken.

De evolutie van het model wordt verder bewezen door zijn score van 50 op de Artificial Analysis Intelligence Indexwat een verbetering van 8 punten betekent ten opzichte van zijn voorganger in slechts één maand, en ook wereldwijd op de 8e plaats staat wat betreft zijn algehele intelligentie bij benchmarkingtaken in verschillende domeinen.

Update voor kunstmatige analyse-intelligentie-index MiniMax M2.7

Update voor kunstmatige analyse-intelligentie-index MiniMax M2.7. Krediet: kunstmatige analyse/X

Niet alle onafhankelijke benchmarks van derden laten verbeteringen zien voor M2.7 ten opzichte van M2.5: Aan BrugBencheen reeks taken ontworpen door agentische AI-coderingsstartup BridgeMind om de prestaties van een model te testen op ‘vibe-codering’, of het omzetten van natuurlijke taal in werkende code, M2.5 behaalde de 12e plaats, terwijl M2.7 de 19e plaats behaalde.

Toegang, prijzen en integratie

MiniMax M2.7 is een eigen model dat beschikbaar is via de MiniMax API en MiniMax Agent-auteurplatforms. Terwijl de kernmodelgewichten voor M2.7 gesloten blijven, blijft het bedrijf bijdragen aan het ecosysteem via het interactieve open source-project Open ruimte.

Voor directe API-integratie en via externe provider Router openenDe MiniMax M2.7 handhaaft een kostenleidend prijspunt van $0,30 per 1 miljoen inputtokens en $1,20 per 1 miljoen outputtokens, wat ongewijzigd is ten opzichte van de prijs van M2.5.

Om verschillende gebruiksschalen en modaliteiten te ondersteunen, biedt MiniMax een gestructureerd Token Plan met verschillende abonnementsniveaus. Deze abonnementen geven gebruikers toegang tot modellen voor tekst, spraak, video, beeld en muziek onder één enkel totaalquotum.

Om de adoptie verder te stimuleren heeft MiniMax een Invitation and Earn-verwijzingsprogramma gelanceerd dat 10 procent korting biedt aan nieuwe genodigden en een kortingsbon van 10 procent aan de genodigde.

Standaard maandprijs voor Token Plan: De standaard maandelijkse niveaus zijn ontworpen voor beginnende ontwikkelaars tot zware algemene gebruikers.

  • Beginnend: 10 USD per maand voor 1.500 verzoeken per 5 uur.

  • Plus: 20 USD per maand voor 4.500 verzoeken per 5 uur.

  • Max.: 50 USD per maand voor 15.000 verzoeken per 5 uur.

Maandelijkse prijzen voor hogesnelheidstokenplannen: Voor workloads op productieschaal waarvoor de M2.7-hogesnelheidsvariant vereist is, zijn de volgende niveaus beschikbaar:

  • Plus hoge snelheid: 40 USD per maand voor 4.500 verzoeken per 5 uur.

  • Max-hoge snelheid: $80 per maand voor 15.000 aanvragen per 5 uur.

  • Ultrahoge snelheid: 150 USD per maand voor 30.000 verzoeken per 5 uur.

Prijzen voor jaarlijkse tokenplannen: Jaarabonnementen bieden aanzienlijke kortingen voor langdurige verbintenis:

  • Standaard begint: $ 100 per jaar (bespaart $ 20).

  • Standaard plus: $ 200 per jaar (besparing $ 40).

  • Standaard max.: $ 500 per jaar (bespaart $ 100).

  • Hoge snelheid Plus: $ 400 per jaar (besparing $ 80).

  • Hoge snelheid max.: $ 800 per jaar (besparing $ 160).

  • Hoge snelheid Ultra: $ 1.500 per jaar (bespaart $ 300).

Een verzoek in deze abonnementen is ongeveer gelijk aan een oproep naar de MiniMax M2.7, hoewel andere modellen in de suite, zoals video of high-definition spraak, verzoeken tegen een hoger tarief gebruiken.

Officiële tool-integraties

Om een ​​probleemloze adoptie te garanderen, MiniMax heeft officiële documentatie verstrekt voor het integreren van M2.7 in meer dan 11 grote ontwikkelaarstools en agentharnassen.

Hieronder vallen veelgebruikte platforms zoals Claude Code, Cursor, Trae en Zed. Andere officieel ondersteunde tools zijn OpenCode, Kilo Code, Cline, Roo Code, Droid, Grok CLI en Codex CLI.

Bovendien ondersteunt het model het Model Context Protocol, waardoor het tools zoals Web Search en Understand Image kan gebruiken voor multimodaal redeneren. Ontwikkelaars die de Anthropic SDK gebruiken, kunnen M2.7 eenvoudig integreren door de ANHROPIC_BASE_URL te wijzigen zodat deze naar het MiniMax-eindpunt verwijst.

Wanneer MiniMax als provider wordt gebruikt in tools als OpenClaw, worden de mogelijkheden voor het begrijpen van afbeeldingen automatisch geconfigureerd via het VLM API-eindpunt van het model, waardoor er geen extra instellingen van de gebruiker nodig zijn.

Met zijn diepe integratiemogelijkheden en zijn baanbrekende benadering van recursieve zelf-evolutie vertegenwoordigt de MiniMax M2.7 een belangrijke stap in de richting van een AI-native toekomst waarin modellen net zo betrokken zijn bij hun eigen vooruitgang als de mensen die hen begeleiden.

Strategische implicaties voor besluitvormers in het bedrijfsleven

Beslissers op het gebied van engineering moeten de M2.7-release interpreteren als bewijs dat agent AI is overgestapt van theoretische prototyping naar productieklare bruikbaarheid.

Het vermogen van het model om de hersteltijd voor live productie-incidenten terug te brengen tot minder dan drie minuten door monitoringstatistieken autonoom te correleren met codeopslagplaatsen suggereert een paradigmaverschuiving voor SRE- en DevOps-teams.

Bedrijven die momenteel onder druk staan ​​om door AI aangestuurde efficiëntieverbeteringen toe te passen, moeten beslissen of ze tevreden zijn met AI als geavanceerde assistent of dat ze er klaar voor zijn om native agentteams te integreren die in staat zijn om end-to-end volledige projecten op te leveren.

Vanuit financieel perspectief vertegenwoordigt M2.7 een significante doorbraak in de kosteneffectiviteit voor redeneren op hoog niveau. Analyse toont aan dat M2.7 minder dan een derde zoveel kost om te draaien als GLM-5 op vergelijkbare intelligentieniveaus.

Het uitvoeren van een standaard intelligentie-index kost bijvoorbeeld $ 176 op de M2.7, vergeleken met $ 547 voor de GLM-5 en $ 371 voor de Kimi K2.5. Deze agressieve prijsstrategie plaatst de M2.7 op de Pareto-grens van intelligentie versus de kostengrafiek, en biedt redenering op ondernemingsniveau tegen een fractie van de marktprijs.

De huidige markt is verzadigd met krachtige modellen, waarvan er vele in het algemeen nog steeds kleine voordelen hebben. Maar de specifieke optimalisatie van M2.7 voor Office Suite-getrouwheid in Excel, PPT en Word en de hoge prestaties in de GDPval-AA-benchmark maken het een uitstekende kandidaat voor organisaties die zich richten op professionele documentworkflows en financiële modellering.

Beslissers moeten de voordelen van een algemeen grensmodel afwegen tegen een gespecialiseerde engine zoals de M2.7, gebouwd om te communiceren met complexe interne steigers en toolkits.

Uiteindelijk kan het feit dat het wordt geleverd door een Chinees bedrijf (met hoofdzetel in Shanghai) en onderworpen is aan de wetten van dat land naast het land van de gebruiker, en nog niet beschikbaar is voor offline of lokaal gebruik, het lastig maken om te verkopen voor bedrijven die actief zijn in de VS en het Westen – vooral die in zwaar gereguleerde of op de overheid gerichte industrieën.

Niettemin suggereert de verschuiving naar zelfontwikkelende modellen dat de ROI van AI-investeringen steeds meer gekoppeld zal worden aan de recursieve winsten van het systeem zelf.

Organisaties die modellen adopteren die in staat zijn hun eigen harnassen te verbeteren, kunnen zich op een snellere iteratiecurve bevinden dan organisaties die vertrouwen op statische, uitsluitend door mensen ontwikkelde verfijning. Met de agressieve integratie van MiniMax in de moderne ontwikkelaarsstack is de barrière voor het testen van deze autonome workflows aanzienlijk gedaald, waardoor de concurrentie onder druk komt te staan ​​om vergelijkbare native agent-mogelijkheden te leveren.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in