Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
A Nvidia pagou 3X a avaliação de setembro da Groq para adquiri-la. Isso é estrategicamente nuclear.
Todo laboratório de IA dependia da GPU, criando um risco enorme de concentração. O Google se libertou das TPUs para uso interno, provando que a narrativa "Nvidia ou nada" era falsa. Isso não apenas demonstrou viabilidade técnica, mas também revelou que o fosso da Nvidia era mais raso do que os mercados acreditavam. Quando um hyperscaler consegue construir silício personalizado, todo comprador sofisticado começa a fazer cálculos do tipo "devemos construir os nossos próprios?". Isso reduz o TAM da Nvidia.
Jonathan Ross (fundador da Groq) é o inventor da TPU. Ele compreendia os princípios arquitetônicos que tornavam viável a aceleração de IA sem GPU. A arquitetura LPU dele mirava carga de inferência onde GPUs são realmente superengenheiradas. Isso importa porque a inferência é onde o dinheiro real está a longo prazo. Treinamento é um capex único, mas inferência é opex recorrente que escala com o uso. Se a Groq provasse que as LPUs podem atingir um custo-benefício competitivo por inferência, todo provedor de nuvem colocaria sua arquitetura em marca branca. A Nvidia seria presa a "apenas treinar" enquanto perdia o fluxo de anuidade.
É seguro ver esse acordo como um seguro da Nvidia contra o Groq, permitindo um ecossistema inteiro de alternativas à Nvidia. Mas o que é mais interessante é o efeito de segunda ordem, o bloqueio do cliente. Agora, a Nvidia detém tanto o padrão vigente (CUDA + GPU) quanto a arquitetura alternativa mais confiável (LPUs). Isso é uma estratégia de nível de compra no Github pela MSFT. Qualquer laboratório de IA que avalie "construir vs comprar vs fornecedor alternativo" agora enfrenta:
- Opção A (GPUs Nvidia)
- Opção B (LPUs Nvidia <> Groq)
- Opção C (começar do zero)
Transformando uma ameaça competitiva em uma ferramenta de segmentação de clientes, Jensen é mestre em ofícios. Agora eles podem discriminar por preço: clientes premium pagam por GPUs, inferências sensíveis a preço são direcionadas para LPUs, e a Nvidia captura ambos.
Se a Nvidia não integrar LPUs em seu roadmap, isso foi uma jogada puramente defensiva. Se eles integrarem e começarem a oferecer pacotes de "GPU para treinamento, LPU para inferência", isso se torna uma aquisição típica que amplia o fosso.
A coisa mais cara na tecnologia não é construir o futuro, é impedir que outra pessoa construa um futuro sem você.

Melhores
Classificação
Favoritos
