Home Nieuws AI-geheugen is niet meer op voorraad, wat een ongekende prijsstijging veroorzaakt

AI-geheugen is niet meer op voorraad, wat een ongekende prijsstijging veroorzaakt

7
0
AI-geheugen is niet meer op voorraad, wat een ongekende prijsstijging veroorzaakt

Eugène Mymrin | Ogenblik | Getty-afbeeldingen

Alle computerapparatuur heeft een onderdeel nodig dat geheugen of RAM wordt genoemd voor gegevensopslag op de korte termijn, maar dit jaar zullen er niet genoeg van deze essentiële componenten zijn om aan de wereldwijde vraag te voldoen.

Omdat bedrijven het leuk vinden Nvidia, Geavanceerde micro-apparaten En Googlen hebben zoveel RAM nodig voor hun AI-chips, en deze bedrijven zijn de eersten die in de rij staan ​​voor de componenten.

Drie leveranciers van primair geheugen – MicronSK Hynix en Samsung Electronics vormen bijna de gehele RAM-markt, en hun bedrijven profiteren van de stijgende vraag.

“We hebben een zeer scherpe, significante toename gezien in de vraag naar geheugen, en deze is veel groter dan ons vermogen om dat geheugen te leveren en, naar onze inschatting, de aanbodcapaciteit van de hele geheugenindustrie”, vertelde Sumit Sadana, Chief Business Officer van Micron, deze week aan CNBC op de CES-beurs in Las Vegas.

De aandelen van Micron zijn het afgelopen jaar met 247% gestegen en het bedrijf rapporteerde deze nettowinst bijna verdrievoudigd in het meest recente kwartaal. Dat zei Samsung deze week dat zij verwacht dat de bedrijfswinst in het kwartaal van december ook bijna zal verdrievoudigen. In de tussentijd SK Hynix overweegt een Amerikaanse beursgang naarmate de aandelenkoers in Zuid-Korea stijgt, en in oktober zei het bedrijf dat het de vraag had veiliggesteld voor de gehele RAM-productiecapaciteit voor 2026.

Nu stijgen de prijzen voor geheugen.

TrendForce, een in Taipei gevestigde onderzoeker die de geheugenmarkt nauwlettend in de gaten houdt, zei deze week dat het verwacht dat de gemiddelde DRAM-geheugenprijzen dit kwartaal tussen 50% en 55% zullen stijgen vergeleken met het vierde kwartaal van 2025. TrendForce-analist Tom Hsu vertelde CNBC dat dit soort stijgingen van de geheugenprijzen “ongekend” waren.

Drie tegen één basis

Chipmakers zoals Nvidia omringen het deel van de chip dat de berekeningen uitvoert – de grafische verwerkingseenheid of GPU – met verschillende blokken van een snelle, gespecialiseerde component genaamd geheugen met hoge bandbreedte, of HBM, zei Sadana. HBM is vaak zichtbaar als chipfabrikanten hun nieuwe chips omhoog houden. Micron levert geheugen aan zowel Nvidia als AMD, de twee toonaangevende GPU-fabrikanten.

Nvidia’s Rubin GPU, die onlangs in productie is gegaan, wordt geleverd met maximaal 288 gigabyte HBM4-geheugen van de volgende generatie per chip. De HBM is geïnstalleerd in acht zichtbare blokken boven en onder de processor, en die GPU zal worden verkocht als onderdeel van een enkel serverrack genaamd de NVL72, dat handig 72 van die GPU’s combineert in één enkel systeem. Ter vergelijking: smartphones worden doorgaans geleverd met 8 of 12 GB minder DDR-geheugen.

Nvidia-oprichter en CEO Jensen Huang introduceert de Rubin GPU en Vera CPU tijdens een toespraak tijdens Nvidia Live op CES 2026 voorafgaand aan de jaarlijkse Consumer Electronics Show in Las Vegas, Nevada op 5 januari 2026.

Patrick T. Fallon | AFP | Getty-afbeeldingen

Maar het HBM-geheugen dat AI-chips nodig hebben, is veel veeleisender dan het RAM-geheugen dat wordt gebruikt in consumentenlaptops en smartphones. Ontworpen voor de hoge bandbreedtespecificaties die AI-chips vereisen, wordt HBM geproduceerd in een ingewikkeld proces waarbij Micron 12 tot 16 geheugenlagen op één enkele chip stapelt, waardoor deze in een “kubus” verandert.

Wanneer Micron één bit HBM-geheugen maakt, moet het afzien van het maken van drie bits meer conventioneel geheugen voor andere apparaten.

“Naarmate we het HBM-aanbod vergroten, blijft er vanwege deze drie-tegen-één-basis minder geheugen over voor het niet-HBM-gedeelte van de markt”, aldus Sadana.

Hsu, de analist van TrendForce, zei dat geheugenfabrikanten de voorkeur geven aan server- en HBM-applicaties boven andere klanten, omdat er een groter potentieel is voor vraaggroei omdat bedrijven en cloudserviceproviders minder prijsgevoelig zijn.

In december zei Micron dat dit zou gebeuren onderbreken onderdeel van zijn activiteiten dat tot doel had geheugen te leveren aan consumenten-pc-bouwers, zodat het bedrijf voorraden kon sparen voor AI-chips en servers.

Sommigen in de technologische industrie vragen zich af hoeveel en hoe snel de prijs van consumenten-RAM is gestegen.

Dean Beeler, mede-oprichter en CTO bij Juice Labs, zei dat hij een paar maanden geleden zijn computer had uitgerust met 256 GB RAM, de maximale hoeveelheid die huidige consumentenmoederborden ondersteunen. Het kostte hem toen zo’n 300 dollar.

“Wie had gedacht dat het slechts een paar maanden later $3.000 RAM zou zijn”, schreef hij maandag op Facebook.

‘Muur van herinnering’

AI-onderzoekers begonnen het geheugen vlak daarvoor als een knelpunt te zien OpenAI’s ChatGPT zal eind 2022 op de markt komen, zegt Sha Rabii, medeoprichter van Majestic Labs, een ondernemer die eerder in silicium werkte bij Google en Meta.

Eerdere AI-systemen zijn ontworpen voor modellen zoals convolutionele neurale netwerken, die minder geheugen vereisen dan grote taalmodellen of LLM’s die tegenwoordig populair zijn, zei Rabii.

Hoewel AI-chips zelf veel sneller zijn geworden, is het geheugen dat niet, zei hij, wat ertoe heeft geleid dat krachtige GPU’s wachten op de gegevens die nodig zijn om LLM’s te draaien.

“Je prestaties worden beperkt door de hoeveelheid geheugen en de snelheid van dat geheugen dat je hebt, en als je steeds meer GPU’s toevoegt, is dat geen winst”, zei Rabii.

De AI-industrie noemt dit de ‘geheugenmuur’.

Erik Isakson | Digitale visie | Getty-afbeeldingen

“De processor besteedt meer tijd aan alleen maar duimen draaien en wachten op gegevens”, zegt Sadana van Micron.

Meer en sneller geheugen betekent dat AI-systemen grotere modellen kunnen draaien, meer klanten tegelijkertijd kunnen bedienen en ‘contextvensters’ kunnen toevoegen waarmee chatbots en andere LLM’s eerdere gesprekken met gebruikers kunnen onthouden, waardoor een vleugje personalisatie aan de ervaring wordt toegevoegd.

Majestic Labs wel ontwerp een AI-systeem voor gevolgtrekking met 128 terabytes aan geheugen, of ongeveer 100 keer meer geheugen dan sommige huidige AI-systemen, zei Rabii, eraan toevoegend dat het bedrijf van plan is HBM-geheugen te mijden voor goedkopere opties. Rabii zei dat de extra RAM- en architectuurondersteuning in het ontwerp ervoor zal zorgen dat hun computers aanzienlijk meer gebruikers tegelijkertijd kunnen ondersteunen dan andere AI-servers, terwijl ze minder stroom verbruiken.

Uitverkocht in 2026

Wall Street heeft consumentenelektronicabedrijven gevraagd, b.v Appel En Dell-technologieënhoe ze zullen omgaan met het geheugentekort en of ze misschien gedwongen zullen worden de prijzen te verhogen of de marges te verlagen. Tegenwoordig is geheugen verantwoordelijk voor ongeveer 20% van de hardwarekosten van een laptop, zei Hsu. Dit is een stijging van tussen de 10% en 18% in de eerste helft van 2025.

In oktober vertelde Apple CFO Kevan Parekh aan analisten dat zijn bedrijf een “lichte rugwind” zag op de geheugenprijzen, maar hij bagatelliseerde dit als “niets opmerkelijks”.

Maar in november zei Dell dat het verwachtte dat de kostenbasis van al zijn producten zou stijgen als gevolg van het geheugentekort. COO Jefferey Clarke vertelde analisten dat Dell van plan was zijn mix van configuraties te wijzigen om de prijseffecten te minimaliseren, maar hij zei dat het tekort waarschijnlijk de verkoopprijzen voor apparaten zal beïnvloeden.

“Ik zie niet hoe dit zijn weg naar het klantenbestand niet zal vinden”, zei Clarke. “Wij zullen er alles aan doen om dat te verzachten.”

Zelfs Nvidia, dat naar voren is gekomen als de grootste klant op de HBM-markt, wordt geconfronteerd met vragen over zijn vraatzuchtige geheugenbehoeften – vooral over zijn consumentenproducten.

Op een persconferentie dinsdag op CES werd Nvidia CEO Jensen Huang gevraagd of hij bang was dat de gamingklanten van het bedrijf AI-technologie kwalijk zouden nemen vanwege de stijgende prijzen voor gameconsoles en grafische kaarten als gevolg van het geheugentekort.

Huang zei dat Nvidia een zeer grote klant van geheugen is en lange relaties heeft met de bedrijven in de ruimte, maar dat er uiteindelijk meer geheugenfabrieken nodig zouden zijn omdat de behoeften aan kunstmatige intelligentie zo hoog zijn.

“Omdat onze vraag zo groot is, werken alle fabrieken, alle HBM-leveranciers, en het gaat allemaal goed met hen”, zei Huang.

Micron kan voor sommige klanten hoogstens aan tweederde van de geheugenbehoeften op de middellange termijn voldoen, aldus Sadana. Maar het bedrijf bouwt momenteel twee grote fabrieken, fabs genaamd, in Boise, Idaho, die in 2027 en 2028 geheugen zullen gaan produceren, zei hij. Micron zal ook baanbrekend werk verrichten in een fabriek in de stad Clay, New York, die naar verwachting in 2030 online zal komen.

Maar voorlopig zijn we uitverkocht voor 2026, zei Sadana.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in