Nvidia a payé 3 fois la valorisation de Groq en septembre pour l'acquérir. C'est stratégiquement nucléaire. Chaque laboratoire d'IA dépendait des GPU, créant un risque de concentration massif. Google s'est libéré avec des TPU pour un usage interne, prouvant que le récit "Nvidia ou rien" était faux. Cela n'a pas seulement démontré la faisabilité technique, cela a révélé que le fossé de Nvidia était moins profond que ce que les marchés croyaient. Lorsqu'un hyperscaler construit avec succès des silicones personnalisés, chaque acheteur sophistiqué commence à se poser la question : "devrions-nous construire le nôtre ?". Cela réduit le TAM de Nvidia. Jonathan Ross (le fondateur de Groq) est l'inventeur du TPU. Il a compris les principes architecturaux qui ont rendu l'accélération AI non-GPU viable. Son architecture LPU ciblait les charges de travail d'inférence où les GPU sont en réalité surdimensionnés. Cela compte parce que l'inférence est là où se trouve l'argent à long terme. L'entraînement est un capex unique, mais l'inférence est un opex récurrent qui évolue avec l'utilisation. Si Groq prouve que les LPU peuvent atteindre un rapport qualité-prix compétitif sur l'inférence, chaque fournisseur de cloud pourrait proposer son architecture en marque blanche. Nvidia serait contraint de se concentrer sur "juste l'entraînement" tout en perdant le flux de revenus récurrents. Il est raisonnable de voir cet accord comme Nvidia s'assurant contre Groq permettant un écosystème entier d'alternatives à Nvidia. Mais ce qui est plus intéressant, ce sont les effets de second ordre, les verrouillages de clients. Maintenant, Nvidia possède à la fois la norme en place (CUDA + GPU) et l'architecture alternative la plus crédible (LPU). C'est stratégique au niveau de l'achat de Github par MSFT. Tout laboratoire d'IA évaluant "construire vs acheter vs fournisseur alternatif" fait maintenant face à : - Option A (GPU Nvidia) - Option B (Nvidia <> LPU Groq) - Option C (partir de zéro) Transformant une menace concurrentielle en un outil de segmentation de clients, Jensen est le maître des échanges. Ils peuvent maintenant pratiquer la discrimination tarifaire : les clients premium paient pour les GPU, l'inférence sensible au prix est dirigée vers les LPU, et Nvidia capture les deux. Si Nvidia n'intègre pas les LPU dans sa feuille de route, c'était un pur jeu défensif. S'ils l'intègrent et commencent à offrir des bundles "GPU pour l'entraînement, LPU pour l'inférence", cela devient une acquisition élargissant le fossé selon les manuels. La chose la plus coûteuse dans la technologie n'est pas de construire l'avenir, mais d'empêcher quelqu'un d'autre de construire un avenir sans vous.