Nvidia betaalde 3X de waardering van Groq in september om het over te nemen. Dit is strategisch nucleair. Elk AI-laboratorium was afhankelijk van GPU's, wat enorme concentratierisico's creëerde. Google brak vrij met TPU's voor intern gebruik, waarmee het bewees dat het "Nvidia of niets"-narratief onjuist was. Dit toonde niet alleen technische haalbaarheid aan, het onthulde ook dat de verdedigingslinie van Nvidia minder diep was dan de markten geloofden. Wanneer een hyperscaler met succes aangepaste silicium bouwt, begint elke geavanceerde koper te rekenen: "moeten we onze eigen bouwen?" Dit verlaagt de TAM van Nvidia. Jonathan Ross (de oprichter van Groq) is de uitvinder van TPU. Hij begreep de architectonische principes die niet-GPU AI-versnelling levensvatbaar maakten. Zijn LPU-architectuur richtte zich op inferentiewerkbelasting waar GPU's eigenlijk over-engineered zijn. Dit is belangrijk omdat inferentie de echte lange termijn winst is. Training is een eenmalige capex, maar inferentie is terugkerende opex die schaalt met gebruik. Als Groq kon bewijzen dat LPU's competitieve prijs-prestaties op inferentie konden behalen, zou elke cloudprovider hun architectuur white-labelen. Nvidia zou worden samengedrukt tot "alleen training" terwijl het de annuïteitenstroom verliest. Het is veilig om deze deal te zien als Nvidia die zich indekt tegen Groq die een heel ecosysteem van Nvidia-alternatieven mogelijk maakt. Maar wat interessanter is, is het tweede-orde effect, de klantlock-ins. Nu bezit Nvidia zowel de gevestigde standaard (CUDA + GPU) als de meest geloofwaardige alternatieve architectuur (LPU's). Dit is strategisch op het niveau van MSFT die Github koopt. Elk AI-laboratorium dat "bouwen versus kopen versus alternatieve leverancier" evalueert, staat nu voor: - Optie A (Nvidia GPU's) - Optie B (Nvidia <> Groq LPU's) - Optie C (van scratch beginnen) Een concurrentiebedreiging omzetten in een klantsegmentatietool, Jensen is de meester van de handel. Ze kunnen nu prijsdiscrimineren: premium klanten betalen voor GPU's, prijsgevoelige inferentie wordt geleid naar LPU's, en Nvidia vangt beide. Als Nvidia LPU's niet in zijn roadmap integreert, was dit een puur defensieve zet. Als ze het wel integreren en beginnen met het aanbieden van "GPU voor training, LPU voor inferentie" bundels, wordt dit een tekstboekvoorbeeld van een verdedigingslinie-verbreder acquisitie. Het duurste in technologie is niet de toekomst bouwen, het is voorkomen dat iemand anders een toekomst zonder jou bouwt.