Google-CEO Sundar Pichai gebaart tijdens een ontmoeting met de Franse president Emmanuel Macron aan de zijlijn van de AI Impact Summit in New Delhi op 19 februari 2026.
Ludovic Marin | Afp | Getty-afbeeldingen
Na een aantal jaren chips te hebben geproduceerd die zowel kunstmatige-intelligentiemodellen kunnen trainen als gevolgtrekkingswerk kunnen verwerken, Googlen verdeelt deze taken in afzonderlijke processors, zijn laatste poging Nvidia op het gebied van hardware-AI.
Google zei woensdag dat het de wijziging doorvoert voor de achtste generatie van zijn Tensor Processing Unit, oftewel TPU. Beide chips zullen later dit jaar verkrijgbaar zijn.
“Met de komst van AI-agenten hebben we besloten dat de gemeenschap zou profiteren van chips die individueel gespecialiseerd zijn voor de trainings- en servicebehoeften”, zegt Amin Vahdat, Google’s senior vice-president en hoofdtechnoloog voor AI en infrastructuur, in een blogpost.
In maart sprak Nvidia over aankomend silicium waarmee modellen snel kunnen reageren op vragen van gebruikers, dankzij technologie verkregen in zijn Een deal van 20 miljard dollar met chipstartup Groq. Google is een grote Nvidia-klant, maar biedt TPU’s aan als alternatief voor bedrijven die gebruik maken van zijn clouddiensten.
De meeste toonaangevende technologiebedrijven ter wereld streven naar de ontwikkeling van op maat gemaakte AI-halfgeleiders om de efficiëntie te maximaliseren en te bouwen voor gespecialiseerde gebruiksscenario’s. Appel heeft jarenlang AI-componenten van de neurale motor in de interne iPhone-chips opgenomen. Microsoft kondigde een tweede generatie AI-chip in januari. Vorige week, Meta zei dat het werkt met Broadcom ontwikkelen meerdere versies van AI-processors.
Google was al vroeg met deze trend bezig. In 2015 begon het bedrijf processors te gebruiken die het had ontworpen om AI-modellen uit te voeren en begon deze in 2018 te verhuren aan cloudklanten. Amazone Web Services heeft de Inferentia-chip aangekondigd voor het afhandelen van AI-verzoeken in 2018en onthuld Trainium-processor voor het trainen van AI-modellen in 2020.
Analisten van DA Davidson schatten in september dat de TPU-activiteiten, samen met de Google DeepMind AI-groep, ca. 900 miljard dollar.
Geen van de techgiganten verdringt Nvidia, en Google vergelijkt de prestaties van zijn nieuwe chips niet eens met die van de AI-chipleider. Google zei dat de trainingschip 2,8 keer de prestaties mogelijk maakt van de zevende generatie Ironwood TPU, november aangekondigdtegen dezelfde kosten, terwijl de prestaties 80% beter zijn voor de inferentieprocessor.
Nvidia zei dat het onderweg is Groq 3 LPU hardware zal gebruik maken van grote hoeveelheden statisch willekeurig toegankelijk geheugen, of SRAM, dat wordt gebruikt door Cerebras, een AI-chipmaker die ingediend De nieuwe inferentiechip van Google, de TPU 8i genaamd, die eerder deze maand werd aangekondigd, vertrouwt ook op SRAM. Elke chip bevat 384 MB SRAM, driemaal zoveel als in Ironwood.
De architectuur is ontworpen “om de enorme doorvoer en lage latentie te leveren die nodig zijn om op kosteneffectieve wijze miljoenen agenten tegelijk te laten draaien.” Sundar PichaiCEO van Google’s moederbedrijf Alphabet, schreef in een blogpost.
De adoptie van de AI-chips van Google neemt toe. Citadel Securities heeft kwantitatieve onderzoekssoftware gebouwd die gebruik maakt van de TPU’s van Google, en alle 17 nationale laboratoria van het Amerikaanse ministerie van Energie gebruiken AI-co-onderzoekersoftware die op de chips is gebouwd, aldus Google. Anthropic heeft zich gecommitteerd aan het gebruik ervan meerdere gigawatt ter waarde van Google TPU’s.
KLOK: Broadcom gaat akkoord met uitgebreide chipdeal met Google, Anthropic



