Nvidia heeft maandag een desktop-supercomputer onthuld die krachtig genoeg is om AI-modellen uit te voeren met maximaal een biljoen parameters – ongeveer zo groot als GPT-4 – zonder de cloud aan te raken. De machine, gebeld DGX-stationMet 748 gigabyte aan aaneengesloten geheugen en 20 petaflops aan rekenkracht in een doos die naast een monitor staat, is dit misschien wel het belangrijkste personal computerproduct sinds de oorspronkelijke Mac Pro creatieve professionals ervan overtuigde hun werkstations achter zich te laten.
De aankondiging werd gedaan tijdens de jaarvergadering van het bedrijf GTC-conferentie in San Jose, belandt in een tijd waarin de AI-industrie worstelt met een fundamentele spanning: de krachtigste modellen ter wereld vereisen een enorme datacenterinfrastructuur, maar de ontwikkelaars en bedrijven die op die modellen voortbouwen, willen steeds vaker hun data, hun agenten en hun intellectuele eigendom lokaal houden. Het DGX Station is het antwoord van Nvidia: een machine met zes cijfers die de afstand tussen de grens van AI en het bureau van een enkele ingenieur verkleint.
Wat 20 petaflops op je desktop eigenlijk betekenen
De DGX-station is gebouwd rond het nieuwe GB300 Grace Blackwell Ultra Desktop-superchipdie een 72-core Grace CPU en een Blackwell Ultra GPU combineert via Nvidia’s NVLink-C2C-interconnect. Die link geeft 1,8 terabytes per seconde aan aaneengesloten bandbreedte tussen de twee processors – zeven keer de snelheid van PCIe Gen 6 – wat betekent dat de CPU en GPU één enkele, naadloze geheugenpool delen zonder de knelpunten die doorgaans het AI-werk op desktops verlammen.
Twintig petaflops – twintig miljard bewerkingen per seconde – zouden deze machine minder dan tien jaar geleden tot de top van de supercomputers ter wereld hebben gerekend. Het topsysteem op Oak Ridge Nationaal Laboratoriumdat in 2018 wereldwijd nummer 1 was, leverde ongeveer tien keer zoveel prestaties, maar besloeg een ruimte ter grootte van twee basketbalvelden. Nvidia verpakt een aanzienlijk deel van die capaciteit in iets dat op een stopcontact wordt aangesloten.
De 748 GB totaal geheugen is ongetwijfeld het belangrijkste cijfer. Modellen met biljoen parameters zijn enorme neurale netwerken die volledig in het geheugen moeten worden geladen om te kunnen functioneren. Zonder voldoende geheugen betekent geen enkele verwerkingssnelheid iets – het model past simpelweg niet. DGX Station ruimt die lat op, en doet dit met een coherente architectuur die de latentieboetes elimineert die gepaard gaan met het verplaatsen van gegevens tussen CPU- en GPU-geheugenpools.
Always-on-agents hebben altijd-aan-hardware nodig
Nvidia heeft ontworpen DGX-station expliciet voor wat het ziet als de volgende fase van AI: autonome agenten die continu redeneren, plannen, code schrijven en taken uitvoeren – niet alleen systemen die reageren op aanwijzingen. Elke belangrijke aankondiging op Algemene voorwaarden 2026 versterkte deze ‘agentic AI’-these, en het DGX-station is waar deze agenten moeten worden gebouwd en gerund.
De sleutelkoppeling is Nemoklauween nieuwe open source-stack die Nvidia maandag ook aankondigde. NemoClaw bundelt Nvidia’s Nemotron open modellen ermee OpenShelleen veilige runtime die op beleid gebaseerde beveiliging, netwerk en privacy voor autonome agenten afdwingt. Met één enkele opdracht wordt de hele stapel geïnstalleerd. Jensen Huang, de oprichter en CEO van Nvidia, verwoordde de combinatie in onmiskenbare bewoordingen en noemde Open Klauw – het bredere agentplatform dat NemoClaw ondersteunt – “het besturingssysteem voor persoonlijke AI” en vergelijk het rechtstreeks met Mac en Windows.
Het argument is eenvoudig: cloudinstanties draaien op en neer als dat nodig is, maar agents die altijd aan staan, hebben persistente berekeningen, persistent geheugen en een persistente status nodig. Een machine onder uw bureau die 24/7 draait met lokale gegevens en lokale modellen in een beveiligingssandbox is architectonisch gezien beter geschikt voor die werklast dan een gehuurde GPU in het datacenter van iemand anders. DGX Station kan fungeren als een persoonlijke supercomputer voor een solo-ontwikkelaar of als een gedeeld rekenknooppunt voor teams, en ondersteunt air-gapped configuraties voor geclassificeerde of gereguleerde omgevingen waar gegevens het gebouw nooit kunnen verlaten.
Van desktopprototype tot datacenterproductie zonder herschrijvingen
Een van de leukste aspecten van het ontwerp van DGX Station is wat Nvidia architecturale continuïteit noemt. Applicaties die op de machine zijn gebouwd, migreren naadloos naar de GB300 NVL72-datacentersystemen van het bedrijf (72-GPU-racks ontworpen voor hyperscale AI-fabrieken) zonder ook maar één regel code te hoeven refactoren. Nvidia verkoopt een verticaal geïntegreerde pijplijn: prototype op uw desktop en vervolgens opschalen naar de cloud wanneer u er klaar voor bent.
Dit is van belang omdat de grootste verborgen kosten bij de huidige AI-ontwikkeling niet de berekeningen zijn, maar de technische tijd die verloren gaat bij het herschrijven van code voor verschillende hardwareconfiguraties. Een model dat is afgestemd op een lokaal GPU-cluster vereist vaak aanzienlijk herwerk om te kunnen implementeren op een cloudinfrastructuur met verschillende geheugenarchitecturen, netwerkstacks en softwareafhankelijkheden. DGX Station elimineert deze wrijving door dezelfde NVIDIA AI-softwarestack uit te voeren die alle niveaus van Nvidia’s infrastructuur aandrijft, van DGX-vonk aan Vera Rubin NVL72.
Nvidia breidde ook DGX Spark, het kleinere broertje van het station, uit met nieuwe clusterondersteuning. Maximaal vier Spark-eenheden kunnen nu functioneren als een verenigd systeem met vrijwel lineaire prestatieschaling: een ‘desktopdatacenter’ dat op een vergadertafel past zonder rackinfrastructuur of een IT-ticket. Voor teams die middelgrote modellen moeten verfijnen of kleinere agenten moeten ontwikkelen, bieden geclusterde Sparks een geloofwaardig departementaal AI-platform tegen een fractie van de kosten van het station.
De vroege kopers laten zien waar de markt naartoe gaat
De initiële klantenlijst voor DGX Station brengt de industrieën in kaart waar AI het snelst evolueert van experiment naar dagelijkse operationele tool. Snowflake gebruikt het systeem om het open source arctische trainingsframework lokaal te testen. EPRIElectric Power Research Institute promoot AI-aangedreven weersvoorspellingen om de betrouwbaarheid van het elektriciteitsnet te versterken. Medivis integreert visuele taalmodellen in chirurgische workflows. Microsoft Research en Cornell hebben de systemen voor praktische AI-trainingen op grote schaal geïmplementeerd.
Systemen kunnen nu worden besteld en worden in de komende maanden verzonden ASUS, Dell-technologieën, GIGABYTE, MSIEn Supermicromet PK zal later dit jaar aansluiten. Nvidia heeft de prijzen niet bekendgemaakt, maar de GB300-componenten en de historische DGX-prijzen van het bedrijf suggereren een investering van zes cijfers – duur volgens werkstationstandaarden, maar opmerkelijk goedkoop vergeleken met de cloud-GPU-kosten van het op grote schaal uitvoeren van inferentie van biljoen parameters.
De lijst met ondersteunde modellen onderstreept hoe open het AI-ecosysteem is geworden: ontwikkelaars kunnen OpenAI’s draaien en verfijnen gpt-oss-120bGooglen Gemma 3, Koningin3, Mistral Groot 3, DeepSeek V3.2en onder andere Nvidia’s eigen Nemotron-modellen. Het DGX-station is model-agnostisch van opzet – een hardware-Zwitserland in een sector waar modelaansluitingen elk kwartaal veranderen.
De echte strategie van Nvidia: bezit elke laag van de AI-stapel, van baan tot kantoor
De DGX-station kwam niet in een vacuüm terecht. Het was een onderdeel van een uitgebreide reeks Algemene voorwaarden 2026 aankondigingen die gezamenlijk de ambitie van Nvidia in kaart brengen om AI-computing op letterlijk elke fysieke schaal te leveren.
Bovenaan onthulde Nvidia Vera Rubin-platform – zeven nieuwe chips in volledige productie – verankerd door het Vera Rubin NVL72-rack, dat 72 Rubin GPU’s van de volgende generatie integreert en tot 10x hogere inferentiedoorvoer per watt vereist in vergelijking met de huidige Blackwell-generatie. De Echte CPUmet 88 aangepaste Olympus-cores, gericht op de orkestratielaag waar agent-workloads steeds meer om vragen. Aan de andere kant kondigde Nvidia de Vera Rubin Space Module aan voor orbitale datacenters, die 25 keer meer AI-berekeningen levert voor op de ruimte gebaseerde inferentie dan de H100.
Tussen het circuit en het kantoor heeft Nvidia samenwerkingsverbanden onthuld die bestaan uit Adobe voor creatieve AI, autofabrikanten als BYD en Nissan voor autonome voertuigen van niveau 4, een coalitie met Mistral AI en zeven andere laboratoria om open frontier-modellen te bouwen, en Dynamo 1.0, een open source inferentiebesturingssysteem dat al is overgenomen door AWS-, AI- en Azure-bedrijven, waaronder Google Cloud en Azure, Google en Azure. Verwarring.
Het patroon is onmiskenbaar: Nvidia wil het computerplatform zijn – hardware, software en modellen – voor elke AI-workload, waar dan ook. De DGX-station is het stuk dat de kloof tussen de cloud en het individu opvult.
De cloud is niet dood, maar zijn monopolie op serieus AI-werk loopt ten einde
De afgelopen jaren was de standaardaanname op het gebied van AI dat voor serieus werk cloud-GPU-instances nodig zijn: het huren van Nvidia-hardware van AWS, Azuurof Google Cloud. Dat model werkt, maar brengt reële kosten met zich mee: kosten voor uitgaand gegevensverkeer, latentie, beveiligingsrisico’s door het verzenden van eigen gegevens naar de infrastructuur van derden, en het fundamentele verlies van controle dat gepaard gaat met het huren van de computer van iemand anders.
De DGX-station doodt de cloud niet: Nvidia’s datacenteractiviteiten laten de desktop-inkomsten in de schaduw vallen en versnellen. Maar het creëert een geloofwaardig lokaal alternatief voor een belangrijke en groeiende categorie werkdruk. Voor het helemaal opnieuw trainen van een grensmodel zijn nog steeds duizenden GPU’s in een magazijn nodig. Een open model verfijnen met biljoenen parameters op eigen data? Voert u gevolgtrekkingen uit voor een interne agent die gevoelige documenten verwerkt? Prototyping maken voordat u zich aan de cloud besteedt? Een machine onder je bureau begint op een rationele keuze te lijken.
Dit is de strategische elegantie van het product: het breidt Nvidia’s bereikbare markt voor persoonlijke AI-infrastructuur uit en versterkt tegelijkertijd de cloudactiviteiten omdat alles dat lokaal wordt gebouwd, is ontworpen om op te schalen naar Nvidia’s datacenterplatforms. Het is niet cloud versus desktop. Het is bewolkt En desktop, en Nvidia levert beide.
Een supercomputer op elk bureau – en een agent die er nooit bovenop slaapt
De bepalende slogan van de pc-revolutie was ‘een computer op elk bureau en in elk huis’. Veertig jaar later actualiseert Nvidia het uitgangspunt met een ongemakkelijke escalatie. De DGX-station plaatst echte supercomputerkracht – het soort dat nationale laboratoria aandrijft – naast een toetsenbord, en NemoClaw plaatst er een autonome AI-agent bovenop die de klok rond draait, code schrijft, tools aanroept en taken uitvoert terwijl de eigenaar slaapt.
Of de toekomst spannend of verontrustend is, hangt af van jouw standpunt. Maar één ding staat niet langer ter discussie: de infrastructuur die nodig is om grens-AI te bouwen, uit te voeren en te bezitten, is zojuist van de serverruimte naar de bureaula verhuisd. En het bedrijf dat bijna elke serieuze AI-chip ter wereld verkoopt, heeft er zojuist voor gezorgd dat het ook de desktoplade verkoopt.



