Home Nieuws Multiverse Computing duwt zijn gecomprimeerde AI-modellen naar de mainstream

Multiverse Computing duwt zijn gecomprimeerde AI-modellen naar de mainstream

3
0
Multiverse Computing duwt zijn gecomprimeerde AI-modellen naar de mainstream

Volgens de normen van particuliere bedrijven, uitgevoerd op tot 9,2% – het hoogste percentage in jaren – durfkapitaalbedrijf Lux Capital adviseerde onlangs bedrijven die afhankelijk zijn van kunstmatige intelligentie om aan hun verplichtingen te voldoen om de capaciteit te berekenen schriftelijk bevestigd. Nu de financiële instabiliteit door de AI-toeleveringsketen golft, waarschuwde Lux, is een handdrukovereenkomst niet genoeg.

Maar er is een heel andere optie: helemaal niet meer afhankelijk zijn van externe computerinfrastructuur. Kleinere AI-modellen die rechtstreeks op het apparaat van de gebruiker draaien – geen datacenter, geen cloudprovider, geen tegenpartijrisico – worden goed genoeg om het overwegen waard. En Multiversum computergebruik steekt zijn hand op.

De Spaanse startup heeft tot nu toe een minder profiel behouden dan sommige van zijn collega’s, maar naarmate de vraag naar AI-efficiëntie groeit, is dit aan het veranderen. Met gecomprimeerde modellen van grote AI-laboratoria, waaronder OpenAI, Meta, DeepSeek en Mistral AI, heeft het zowel een app gelanceerd die de mogelijkheden van zijn gecomprimeerde modellen laat zien als een API-portaal – een gateway waarmee ontwikkelaars toegang kunnen krijgen tot en kunnen bouwen met die modellen – waardoor ze toegankelijker worden.

De CompactifAI-appdat zijn naam deelt met de kwantumgeïnspireerde compressietechnologie van Multiverse, is een AI-chattool in de trant van ChatGPT of Mistral’s Le Chat. Stel een vraag en het model antwoordt. Het verschil is dat Multiverse Gilda heeft ingebouwd, een model dat zo klein is dat het lokaal en offline kan draaien, aldus het bedrijf.

Voor eindgebruikers is dit een voorproefje van AI aan de edge, met gegevens die hun apparaten niet verlaten en geen verbinding vereisen. Maar er is een waarschuwing: hun mobiele apparaten moeten voldoende RAM en opslagruimte hebben. Als dat niet het geval is (en veel oudere iPhones niet), schakelt de app via API terug naar cloudgebaseerde modellen. De route tussen lokale en cloudverwerking wordt automatisch afgehandeld door een systeem dat Multiverse Ash Nazg heeft genoemd, wiens naam een ​​belletje zal doen rinkelen bij Tolkien-fans omdat het verwijst naar de One Ring-inscriptie in ‘The Lord of the Rings’. Maar wanneer de app naar de cloud gaat, verliest deze daarbij zijn belangrijkste privacyvoordeel.

Deze beperkingen betekenen dat CompactifAI nog niet helemaal klaar is voor massale adoptie door klanten, hoewel dat misschien nooit het doel is geweest. Volgens gegevens van Sensor Tower was dat het geval minder dan 5.000 downloads in de afgelopen maand.

Het echte doelwit zijn bedrijven. Vandaag lanceert Multiverse een selfservice API-portaal dat ontwikkelaars en ondernemingen directe toegang geeft tot de gecomprimeerde modellen – geen AWS Marketplace vereist.

Techcrunch-evenement

San Francisco, CA
|
13.-15. Oktober 2026

“Het CompactifAI API-portaal geeft ontwikkelaars (nu) directe toegang tot compacte modellen met de transparantie en controle die nodig zijn om ze in productie te laten draaien”, zei CEO Enrique Lizaso in een verklaring.

Realtime gebruiksmonitoring is een van de belangrijkste kenmerken van de API, en dat is geen toeval. Naast de potentiële voordelen van implementatie aan de edge, zijn lagere rekenkosten een van de belangrijkste redenen waarom bedrijven kleinere modellen beschouwen als alternatief voor grote taalmodellen (LLM’s).

Het helpt ook dat kleine modellen minder beperkt zijn dan vroeger. Eerder deze week heeft Mistral zijn kleine modelfamilie bijgewerkt met lancering van Mistral Small 4zoals het tegelijkertijd zegt, is geoptimaliseerd voor algemene chat, codering, agenttaken en redeneren. Het Franse bedrijf ook uitgegeven door Forgeeen systeem waarmee bedrijven aangepaste modellen kunnen bouwen, inclusief kleine modellen, waarmee ze de afwegingen kunnen kiezen die hun gebruiksscenario’s het beste kunnen verdragen.

De nieuwste bevindingen van Multiverse suggereren ook dat de kloof met LLM’s kleiner wordt. Het nieuwste gecomprimeerde model, HyperNova 60B 2602is gebouwd op gpt-oss-120b – een OpenAI-model waarvan de onderliggende code openbaar beschikbaar is. Het bedrijf beweert dat het nu levert snellere reactie tegen lagere kosten dan het origineel waarvan het is afgeleid, een voordeel dat vooral van belang is voor agentische coderingsworkflows waarbij AI op autonome wijze complexe programmeertaken in meerdere stappen voltooit.

Het is een grote uitdaging om de modellen klein genoeg te maken om op mobiele apparaten te werken en toch bruikbaar te blijven. Apple-intelligentie omzeilde dit probleem door een on-device-model en een cloud-model te combineren. De CompactifAI-app van Multiverse kan ook verzoeken routeren naar gpt-oss-120b via API, maar het belangrijkste doel is om te laten zien dat lokale modellen zoals Gilda en zijn toekomstige vervangingen voordelen hebben die verder gaan dan kostenbesparingen.

Voor werknemers in kritieke gebieden biedt een model dat lokaal kan draaien en zonder verbinding met de cloud meer privacy en veerkracht. Maar de grotere waarde ligt in de zakelijke toepassingen die dit kan opleveren – bijvoorbeeld het inbedden van kunstmatige intelligentie in drones, satellieten en andere omgevingen waar connectiviteit niet als vanzelfsprekend kan worden beschouwd.

Het bedrijf bedient al meer dan 100 wereldwijde klanten, waaronder Bank of Canada, Bosch en Iberdrola, maar het uitbreiden van zijn klantenbestand zou kunnen helpen meer financiering vrij te maken. Na het verhogen van een Serie B van $ 215 miljoen vorig jaar is het nu geruchten over een nieuwe financieringsronde van 500 miljoen euro met een waarde van ruim € 1,5 miljard.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in