Nvidia pagó 3 veces la valoración de Groq en septiembre para adquirirlo. Esto es estratégicamente nuclear. Cada laboratorio de IA dependía de GPU, creando un enorme riesgo de concentración. Google se liberó con TPUs para uso interno, demostrando que la narrativa de "Nvidia o nada" era falsa. Esto no solo demostró la viabilidad técnica, sino que reveló que la ventaja competitiva de Nvidia era más superficial de lo que los mercados creían. Cuando un hyperscaler construye con éxito silicio personalizado, cada comprador sofisticado comienza a hacer cálculos de "¿deberíamos construir el nuestro?". Esto reduce el TAM de Nvidia. Jonathan Ross (fundador de Groq) es el inventor de TPU. Entendió los principios arquitectónicos que hicieron viable la aceleración de IA no basada en GPU. Su arquitectura LPU se centró en la carga de trabajo de inferencia donde las GPU están realmente sobredimensionadas. Esto es importante porque la inferencia es donde está el verdadero dinero a largo plazo. El entrenamiento es un gasto de capital único, pero la inferencia es un gasto operativo recurrente que escala con el uso. Si Groq demostró que las LPU podían alcanzar un rendimiento-precio competitivo en inferencia, cada proveedor de nube etiquetaría su arquitectura. Nvidia se vería presionada a "solo entrenamiento" mientras pierde el flujo de ingresos recurrente. Es seguro ver este acuerdo como Nvidia asegurándose contra Groq habilitando todo un ecosistema de alternativas a Nvidia. Pero lo que es más interesante es el efecto de segundo orden, los bloqueos de clientes. Ahora, Nvidia posee tanto el estándar incumbente (CUDA + GPU) como la arquitectura alternativa más creíble (LPU). Esto es estratégico a nivel de MSFT comprando Github. Cualquier laboratorio de IA que evalúe "construir vs comprar vs proveedor alternativo" ahora se enfrenta a: - Opción A (GPU de Nvidia) - Opción B (Nvidia <> LPU de Groq) - Opción C (empezar desde cero) Convertir una amenaza competitiva en una herramienta de segmentación de clientes, Jensen es el maestro de los intercambios. Ahora pueden discriminar precios: los clientes premium pagan por GPUs, la inferencia sensible al precio se canaliza a las LPU, y Nvidia captura ambos. Si Nvidia no integra las LPU en su hoja de ruta, esto fue un movimiento puramente defensivo. Si las integran y comienzan a ofrecer paquetes de "GPU para entrenamiento, LPU para inferencia", esto se convierte en una adquisición que amplía la ventaja competitiva según el libro de texto. Lo más caro en tecnología no es construir el futuro, es prevenir que alguien más construya un futuro sin ti.