A Nvidia pagou 3X a avaliação de setembro da Groq para adquiri-la. Isso é estrategicamente nuclear. Todo laboratório de IA dependia da GPU, criando um risco enorme de concentração. O Google se libertou das TPUs para uso interno, provando que a narrativa "Nvidia ou nada" era falsa. Isso não apenas demonstrou viabilidade técnica, mas também revelou que o fosso da Nvidia era mais raso do que os mercados acreditavam. Quando um hyperscaler consegue construir silício personalizado, todo comprador sofisticado começa a fazer cálculos do tipo "devemos construir os nossos próprios?". Isso reduz o TAM da Nvidia. Jonathan Ross (fundador da Groq) é o inventor da TPU. Ele compreendia os princípios arquitetônicos que tornavam viável a aceleração de IA sem GPU. A arquitetura LPU dele mirava carga de inferência onde GPUs são realmente superengenheiradas. Isso importa porque a inferência é onde o dinheiro real está a longo prazo. Treinamento é um capex único, mas inferência é opex recorrente que escala com o uso. Se a Groq provasse que as LPUs podem atingir um custo-benefício competitivo por inferência, todo provedor de nuvem colocaria sua arquitetura em marca branca. A Nvidia seria presa a "apenas treinar" enquanto perdia o fluxo de anuidade. É seguro ver esse acordo como um seguro da Nvidia contra o Groq, permitindo um ecossistema inteiro de alternativas à Nvidia. Mas o que é mais interessante é o efeito de segunda ordem, o bloqueio do cliente. Agora, a Nvidia detém tanto o padrão vigente (CUDA + GPU) quanto a arquitetura alternativa mais confiável (LPUs). Isso é uma estratégia de nível de compra no Github pela MSFT. Qualquer laboratório de IA que avalie "construir vs comprar vs fornecedor alternativo" agora enfrenta: - Opção A (GPUs Nvidia) - Opção B (LPUs Nvidia <> Groq) - Opção C (começar do zero) Transformando uma ameaça competitiva em uma ferramenta de segmentação de clientes, Jensen é mestre em ofícios. Agora eles podem discriminar por preço: clientes premium pagam por GPUs, inferências sensíveis a preço são direcionadas para LPUs, e a Nvidia captura ambos. Se a Nvidia não integrar LPUs em seu roadmap, isso foi uma jogada puramente defensiva. Se eles integrarem e começarem a oferecer pacotes de "GPU para treinamento, LPU para inferência", isso se torna uma aquisição típica que amplia o fosso. A coisa mais cara na tecnologia não é construir o futuro, é impedir que outra pessoa construa um futuro sem você.