Home Nieuws Mistral’s Small 4 consolideert redenering, visie en coderen in één model –...

Mistral’s Small 4 consolideert redenering, visie en coderen in één model – tegen een fractie van de sluitingskosten

2
0
Mistral’s Small 4 consolideert redenering, visie en coderen in één model – tegen een fractie van de sluitingskosten

Bedrijven die met afzonderlijke modellen voor redeneren, multimodale taken en agentcodering hebben gegoocheld, kunnen hun stapel mogelijk vereenvoudigen: Mistral’s nieuwe Small 4 brengt ze alle drie in één open source-model met aanpasbare redeneerniveaus onder de motorkap.

Kleine 4 betreedt een druk veld met kleine modellen – inbegrepen Koningin En Claude Haiku — die concurreren op het gebied van afsluitingskosten en benchmarkprestaties. De pitch van Mistral: kortere output die zich vertaalt in een lagere latentie en goedkopere tokens.

Mistral Kleine 4-updates Mistral Small 3.2, uitgebracht in juni 2025, en is beschikbaar onder een Apache 2.0-licentie. “Met Small 4 hoeven gebruikers niet langer te kiezen tussen een snel instructiemodel, een krachtige redeneermachine of een multimodale assistent: één model levert ze nu alle drie met configureerbare redeneerinspanningen en de beste efficiëntie in zijn klasse”, aldus Mistral in een blogpost.

Het bedrijf zei dat ondanks zijn kleinere formaat – Mistral Small 4 in totaal 119 miljard parameters heeft met slechts 6 miljard actieve parameters per token – het model alle mogelijkheden van Mistral’s modellen combineert. Het heeft de redeneermogelijkheden van Magistral, het multimodale begrip van Pixtral en de agentische codeerprestaties van Devstral. Het heeft ook een contextvenster van 256K, wat volgens het bedrijf goed werkt voor lange gesprekken en analyses.

Rob May, mede-oprichter en CEO van Neurometric, de marktplaats voor kleine taalmodellen, vertelde VentureBeat dat de Mistral Small 4 opvalt door zijn architectonische flexibiliteit. Het sluit zich echter aan bij een groeiend aantal kleinere modellen, wat volgens hem het risico met zich meebrengt dat de markt nog meer versnipperd raakt.

“Vanuit technisch perspectief kan het concurrerend zijn met andere modellen”, zei May. “Het grotere probleem is dat het de verwarring op de markt moet overwinnen. Mistral moet een mindshare winnen om kans te maken om als eerste deel uit te maken van die testset. Alleen dan kunnen ze de technische mogelijkheden van het model laten zien.”

Reden van de vraag

Kleine modellen bieden nog steeds aan goede kansen voor bedrijfsbouwers die dezelfde LLM-ervaring willen opdoen voor een lagere prijs.

Het model is gebouwd op een mix van deskundige architectuur, net als andere Mistral-modellen. Het heeft 128 experts met vier actieve tokens, wat volgens Mistral efficiënte schaalvergroting en specialisatie mogelijk maakt.

Hierdoor kan de Mistral Small 4 sneller reageren, zelfs op meer redeneerintensieve outputs. Het kan ook tekst en afbeeldingen verwerken en erover redeneren, waardoor gebruikers documenten en grafieken kunnen ontleden.

Mistral zei dat het model een nieuwe parameter heeft die hij ‘reaction_effort’ noemt, waarmee gebruikers ‘het gedrag van het model dynamisch kunnen aanpassen’. Bedrijven zouden Small 4 kunnen configureren om snelle, gemakkelijke antwoorden te geven in de stijl van Mistral Small 3.2, of het uitgebreider kunnen maken in de stijl van Magistral, waardoor stapsgewijze redenering voor complexe taken wordt geboden, aldus Mistral.

Mistral zei dat de Small 4 op minder chips draait dan vergelijkbare modellen, met een aanbevolen opstelling van vier Nvidia HGX H100 of H200 of twee Nvidia DGX B200.

“Het leveren van geavanceerde open source AI-modellen vereist brede optimalisatie. Door nauwe samenwerking met Nvidia is de inferentie geoptimaliseerd voor zowel open source vLLM als SGLang, waardoor een efficiënte dienstverlening met hoge doorvoer in alle implementatiescenario’s wordt gegarandeerd”, aldus Mistral.

Benchmarkprestaties

Volgens de benchmarks van Mistral presteert de Small 4 dichtbij het niveau van de Mistral Medium 3.1 en Mistral Large 3, vooral in MMLU Pro.

Mistral zei dat de instructievolgende prestaties de Small 4 geschikt maken voor grote bedrijfstaken zoals het begrijpen van documenten.

Hoewel hij concurrerend is met andere kleine modellen van andere bedrijven, presteert Small 4 nog steeds slechter dan andere populaire open source-modellen, vooral bij redeneerintensieve taken. Qwen 3.5 122B en Qwen 3-next 80B presteren beter dan Small 4 op LiveCodeBench, net als Claude Haiku in de instructiemodus.

Mistral Small 4 wist OpenAI’s GPT-OSS 120B te verslaan in LCR.

Mistral beweert dat de Small 4 deze scores behaalt met een “aanzienlijk kortere output”, wat zich vertaalt in een lagere overhead en latentie bij de beëindiging dan de andere modellen. Concreet produceert de Small 4 in de instructiemodus de kortste uitvoer van alle geteste modellen: 2,1K tekens versus 14,2K voor de Claude Haiku en 23,6K voor de GPT-OSS 120B. In de redeneermodus is de output veel langer (18,7K), wat in dat geval verwacht wordt.

May zei dat hoewel de keuze van het model afhangt van de doelstellingen van een organisatie, latentie een van de drie pijlers is waar ze prioriteit aan moeten geven. “Het hangt af van je doelen en waarvoor je je architectuur optimaliseert. Bedrijven moeten prioriteit geven aan deze drie pijlers: betrouwbaarheid en gestructureerde output, latentie-tot-intelligentieverhouding, verfijning en privacy”, aldus May.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in