De Chinese elektronica- en autofabrikant Xiaomi verraste vandaag de wereldwijde AI-gemeenschap met de release van MiMo-V2-Proeen nieuw basismodel met 1 miljard parameters, met benchmarks die de Amerikaanse AI-giganten OpenAI en Anthropic benaderen, maar tegen ongeveer een zevende of zesde van de kosten als het wordt benaderd via een eigen API – en, belangrijker nog, het heen en weer sturen van minder dan 256.000 tokens aan informatie.
Onder leiding van Fuli Luo, een veteraan van het ontwrichtende DeepSeek R1-project, vertegenwoordigt de release wat Luo typeert als een “stille hinderlaag” aan de mondiale grens. Bovendien verklaarde Luo in a X berichten dat het bedrijf van plan is een modelvariant van deze nieuwste release open source te maken “wanneer de modellen stabiel genoeg zijn om dit te verdienen.”
Door zich te concentreren op de ‘actieruimte’ van intelligentie – van het genereren van code naar de autonome werking van digitale ‘klauwen’ – probeert Xiaomi volledig uit het conversatieparadigma te springen.
Voorafgaand aan dit uitstapje naar grensverleggende AI vestigde het in Peking gevestigde Xiaomi zich als een titan van “The Internet of Things” en consumentenhardware.
Wereldwijd erkend als de derde grootste smartphonefabrikant ter wereld, heeft Xiaomi begin jaren twintig grote inspanningen geleverd in de autosector. Zijn elektrische voertuigen (EV’s), zoals de SU7 en de onlangs gelanceerde YU7 SUV, hebben het bedrijf getransformeerd in een verticaal geïntegreerde krachtpatser die hardware, software en nu geavanceerd redeneren kan samenbrengen.
Deze achtergrond in techniek in de fysieke wereld vormt de basis voor de architectuur van de MiMo-V2-Pro; het is gebouwd om het ‘brein’ van complexe systemen te zijn, of deze systemen nu mondiale toeleveringsketens beheren of navigeren door de ingewikkelde steigers van een autonoom codeermiddel.
Technologie: de architectuur van het bureau
De centrale uitdaging in het ‘Agent-tijdperk’ is het handhaven van hifi-redeneringen over enorme dataspannes zonder dat dit gepaard gaat met een onbetaalbare ‘intelligentiebelasting’ op het gebied van latentie of kosten. De MiMo-V2-Pro lost dit op via een schaarse architectuur: hoewel hij 1T aan totale parameters bevat, zijn er slechts 42B actief tijdens een enkele voorwaartse doorgang, waardoor hij ongeveer drie keer zo groot is als zijn voorganger, de MiMo-V2-Flash.
De effectiviteit van het model is geworteld in een ontwikkeld hybride aandachtsmechanisme. Standaardtransformatoren worden doorgaans geconfronteerd met een kwadratische toename van de rekenvereisten naarmate de context groeit; MiMo-V2-Pro gebruikt een hybride verhouding van 7:1 (verhoogd ten opzichte van 5:1 in de Flash-versie) om zijn enorme 1M token-contextvenster aan te sturen. Door deze architecturale keuze kan het model een diep “geheugen” behouden van langlopende taken zonder de prestatieverslechtering die gewoonlijk wordt waargenomen bij grensverleggende modellen.
De analogie: Beschouw het model niet als een student die een boek pagina voor pagina leest, maar als een deskundige onderzoeker in een grote bibliotheek. Dankzij de verhouding van 7:1 kan het model 85% van de gegevens “doorzoeken” op zoek naar context, terwijl er aandacht met hoge dichtheid wordt toegepast op de 15% die het meest relevant zijn voor de taak die voorhanden is.
Dit gaat gepaard met een lichtgewicht Multi-Token Prediction (MTP)-laag, waardoor het model meerdere tokens tegelijkertijd kan voorspellen en genereren, waardoor de latentie die nodig is voor de ‘denkfase’ van agentworkflows drastisch wordt verminderd. Volgens Luo werden deze structurele beslissingen maanden van tevoren genomen, met name om een ‘structureel voordeel’ te bieden voor de onverwachte snelheid waarmee de industrie overschakelde op agenten.
Product- en benchmarking: een reality check door derden
De interne gegevens van Xiaomi schetsen een beeld van een model dat uitblinkt in ‘real-world’ taken in plaats van in synthetische benchmarks. Op GDPval-AA, een benchmark die de prestaties meet bij real-world agentische taken, behaalde de MiMo-V2-Pro een Elo van 1426, waarmee hij een voorsprong heeft op grote Chinese collega’s zoals de GLM-5 (1406) en Kimi K2.5 (1283).
Hoewel hij nog steeds achterblijft bij westerse “max Effort”-modellen zoals de Claude Sonnet 4.6 (1633) in rauwe Elo, vertegenwoordigt hij de hoogste geregistreerde prestaties voor een model van Chinese oorsprong in deze categorie.
Benchmarkorganisatie van derden Kunstmatige analyse bevestigde deze beweringenen plaatst de MiMo-V2-Pro op #10 op zijn Global Intelligence Index met een score van 49. Dit plaatst hem in hetzelfde niveau als de GPT-5.2 Codex en vóór de Grok 4.20 Beta. Deze resultaten suggereren dat Xiaomi met succes een model heeft gebouwd dat in staat is om op hoog niveau te redeneren dat nodig is voor engineering- en productietaken.
Belangrijke statistieken uit kunstmatige analyse benadrukken een aanzienlijke sprong ten opzichte van de vorige versie met open gewicht, de MiMo-V2-Flash (die 41 scoorde):
-
Hallucinatiepercentage: Het Pro-model verminderde het hallucinatiepercentage tot 30%, een scherpe verbetering ten opzichte van de 48% van het Flash-model.
-
Alwetendheidsindex: Hij scoorde +5 en kwam daarmee voor op de GLM-5 (+2) en Kimi K2.5 (-8).
-
Token-efficiëntie: Om de volledige Intelligence Index uit te voeren had MiMo-V2-Pro slechts 77 miljoen uitvoertokens nodig, aanzienlijk minder dan GLM-5 (109 miljoen) of Kimi K2.5 (89 miljoen), wat wijst op een beknopter en efficiënter redeneerproces.
Xiaomi’s eigen grafieken benadrukken verder de mogelijkheden van “General Agent” en “Coding Agent”. Op ClawEval, een benchmark voor agentensteigers, scoorde het model een score van 61,5, waarmee het de prestaties van de Claude Opus 4.6 (66,3) benadert en de GPT-5.2 (50,0) aanzienlijk overtreft. In coderingsspecifieke omgevingen zoals Terminal-Bench 2.0 scoorde het een 86,7, wat wijst op een hoge betrouwbaarheid bij het uitvoeren van opdrachten in een live terminalomgeving.
Hoe bedrijven MiMo-V2-Pro moeten evalueren voor gebruik
Voor de persoonlijkheden die worden geschetst in de huidige AI-organisaties – van infrastructuur tot beveiliging – vertegenwoordigt de MiMo-V2-Pro een paradigmaverschuiving in de ‘prijs-kwaliteit’-curve.
Beslissers op het gebied van infrastructuur zullen de MiMo-V2-Pro een aantrekkelijke kandidaat vinden voor de Pareto-grens van intelligentie versus kosten. Artificial Analysis meldde dat het uitvoeren van hun index slechts $348 kostte voor MiMo-V2-Pro, vergeleken met $2.304 voor GPT-5.2 en $2.486 voor Claude Opus 4.6.
Voor organisaties die GPU-clusters of inkoop beheren, is de mogelijkheid om gedurende ca. 1/7 van de prijs voor in het Westen gevestigde bedrijven is een sterke stimulans voor testen op productieschaal.
Databeslissers kunnen het 1M-contextvenster gebruiken voor RAG-ready architecturen, waardoor ze volledige bedrijfscodebases of documentatiesets in één enkele prompt kunnen voeden zonder de fragmentatie die vereist is door kleinere contextmodellen.
Een systeem-/orkestratiebeslisser zou de MiMo-V2-Pro moeten beschouwen als een primair “brein” voor coördinatie tussen meerdere agenten. Omdat het model is geoptimaliseerd voor OpenClaw en Claude Code, kan het lange horizonplanning en nauwkeurige tools aan, zonder de constante menselijke tussenkomst die eerdere modellen teisterde.
De hoge ranking in GDPval-AA suggereert dat het bijzonder geschikt is voor de workflow- en orkestratielaag die nodig is om AI binnen de hele onderneming te schalen. Het biedt de mogelijkheid om systemen te creëren die verder kunnen gaan dan eenvoudige automatisering en complexe, uit meerdere stappen bestaande problemen kunnen oplossen.
Beveiligingsbeslissers moeten echter voorzichtig zijn. De zeer ‘agentische’ aard die het model sterk maakt (het vermogen om terminals te gebruiken en bestanden te manipuleren) vergroot de oppervlakte voor snelle injectie en ongeoorloofde modeltoegang.
Hoewel het lage hallucinatiepercentage (30%) een defensieve zegen is, betekent het gebrek aan publieke gewichten (in tegenstelling tot de Flash-versie) dat interne beveiligingsteams niet de diepgaande audits op ‘modelniveau’ kunnen uitvoeren die soms nodig zijn voor zeer gevoelige implementaties. Elke bedrijfsimplementatie moet gepaard gaan met robuuste monitoring- en auditprotocollen.
Prijzen, beschikbaarheid en de weg voorwaarts
Xiaomi heeft de MiMo-V2-Pro geprijsd om de ontwikkelaarsmarkt te domineren. De prijzen zijn gelaagd op basis van contextgebruik met concurrerende prijzen voor caching ter ondersteuning van hoogfrequente redeneringstaken.
-
MiMo-V2-Pro (tot 256K): $1 per 1M invoertokens en $3 per 1M uitvoertokens
-
MiMo-V2-Pro (256K-1M): $2 per 1M invoertokens en $6 per 1M uitvoertokens
-
Cache lezen: $0,20 per 1 miljoen tokens voor het lagere niveau en $0,40 voor het hogere niveau
-
Cache schrijf: Tijdelijk gratis ($0)
Hier ziet u hoe het zich verhoudt tot andere toonaangevende Frontier-modellen over de hele wereld:
Deze agressieve positionering is ontworpen om de applicatiestromen met hoge intensiteit die de volgende generatie software definiëren, te bevorderen. Het model is momenteel alleen beschikbaar via Xiaomi’s first-party API, zonder huidige ondersteuning voor beeld- of multimodale invoer – een opmerkelijke omissie in een tijdperk van “Omni” -modellen, hoewel Xiaomi voor die behoeften een aparte MiMo-V2-Omni heeft geplaagd.
De “Hunter Alpha”-periode op OpenRouter bewees dat de markt grote behoefte heeft aan deze specifieke combinatie van efficiëntie en redenering. De filosofie van Fuli Luo – dat de onderzoekssnelheid wordt gedreven door een ‘oprechte liefde voor de wereld waarvoor je bouwt’ – heeft geresulteerd in een model dat op de tweede plaats staat in China en op de achtste plaats wereldwijd op gevestigde inlichtingenindexen.
Of het een “stille” hinderlaag blijft of de basis wordt voor een wereldwijde verschuiving in de macht van AI, hangt af van hoe snel ontwikkelaars de “actieruimte” over het “chatvenster” overnemen. Omdat Xiaomi nu de doelpalen heeft verplaatst: de vraag is niet langer alleen “kan het praten?” maar “kan het handelen?”



