Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Dev Shah
Aumentando el ROAS en 4 veces con agentes de IA @leoadsai | Bio AI Agents previos construidos @ MGH, BMC | Prev fundó @profilecityhq, @nnsphere (respaldado por Nvidia)
Google nunca venderá TPUs. En el momento en que Google vende TPUs a gran escala, transforma su ventaja arquitectónica en una mercancía.
Los equipos internos de Google tienen reclamaciones de primer orden sobre la capacidad de TPU porque esas cargas de trabajo generan directamente ingresos y fosos estratégicos. Cualquier TPU vendido externamente es un TPU que no se utiliza para defender los principales motores de beneficio de Google.
Actualmente, las TPUs son la integración vertical y de borde propietaria de Google que les permite operar infraestructuras de IA a costes que los competidores no pueden igualar. DeepMind puede agotar presupuestos de cómputo que arruinarían OpenAI porque Google no paga los precios de GPU al público, sino el coste marginal interno de TPU.
Si Google empieza a vender TPUs externamente:
- Tienen que poner precios competitivos frente a las GPUs Nvidia, lo que significa revelar su estructura de costes. De repente, todo el mundo sabe que los verdaderos costes de cálculo de IA de Google no son magia.
- Vender TPUs bare metal significa publicar especificaciones detalladas, benchmarks de rendimiento e interfaces de programación. Esto es ofrecer a los competidores un plan para "cómo Google realmente hace IA a gran escala". Ahora mismo, eso es confidencial. En el momento en que es un producto, se estudia, se revierte y finalmente se replica.
- Google Cloud ya vende acceso a TPU a través de GCP a precios premium. Si empiezan a vender TPUs sin reservas, compiten con su propia oferta en la nube de mayor margen. Ningún comprador sofisticado pagaría un sobreprecio a GCP cuando podría comprar TPUs directamente y usarlos más baratos.
El precio del TPU GCP no es competitivo comparado con las alternativas a GPU, pero sí es premium. Esto no es incompetencia, está intencionadamente valorado para desalentar una adopción externa masiva. Google pone a disposición las TPUs lo suficiente para evitar acusaciones de "infraestructura de acaparamiento antimonopolio" y para captar algunos ingresos de la nube de alto margen, pero en realidad no quieren que clientes externos consuman capacidad a gran escala.
Compáralo con AWS, que vende todos los chips que puede fabricar (Graviton, Trainium, Inferentia) porque AWS es un negocio de infraestructura de commodities. El negocio principal de Google son los anuncios y los productos de consumo que dependen de la infraestructura de IA. Vender la infraestructura es como McDonald's vendiendo su cadena de suministro a Burger King, aunque genere ingresos, estás fortaleciendo a la competencia y debilitando tu negocio principal.
No puedes ser simultáneamente un proveedor de chips de productos básicos Y mantener una ventaja de infraestructura propietaria. En el momento en que vendes, te convertizas en mercancía. En el momento en que te convertes en mercancía, tu ventaja se evapora.
Dado que vender TPUs parece estratégicamente poco sostenible, ¿por qué se especula que Google lo persigue igualmente? Creo que porque las divisiones de la nube en cada hyperscaler tienen una ansiedad perpetua de "necesitamos diferenciación", y los chips personalizados parecen diferenciación. Pero la diferenciación solo importa si protege márgenes o captura la participación sin destruir tu negocio principal. Que Google venda TPUs sería una diferenciación que destruye más valor del que crea.
30
Nvidia pagó 3 veces la valoración de septiembre de Groq para adquirirlo. Esto es estratégicamente nuclear.
Cada laboratorio de IA dependía de la GPU, lo que generaba un riesgo enorme de concentración. Google se liberó de los TPUs para uso interno, demostrando que la narrativa de "Nvidia o nada" era falsa. Esto no solo demostró la viabilidad técnica, sino que también reveló que el foso de Nvidia era más superficial de lo que los mercados creían. Cuando un hiperescalador consigue construir silicio personalizado, cada comprador sofisticado empieza a hacer cálculos de "¿deberíamos construir los nuestros?". Esto elimina el TAM de Nvidia.
Jonathan Ross (fundador de Groq) es el inventor de la TPU. Comprendía los principios arquitectónicos que hacían viable la aceleración de IA sin GPU. Su arquitectura LPU estaba orientada a cargas de inferencia donde las GPUs están realmente sobreingenierizadas. Esto importa porque la inferencia es donde está el dinero real a largo plazo. El entrenamiento es un capex único, pero la inferencia es opex recurrente que escala con el uso. Si Groq demostrara que las LPUs pueden alcanzar un precio-rendimiento competitivo por inferencia, todos los proveedores de la nube vendrían su arquitectura como marca blanca. Nvidia se vería atrapado en "solo entrenamiento" mientras perdería la corriente de anualidades.
Es seguro ver este acuerdo como un seguro de Nvidia contra Groq que permite un ecosistema completo de alternativas a Nvidia. Pero lo que resulta más interesante es el efecto de segunda orden: el bloqueo del cliente. Ahora, Nvidia posee tanto el estándar vigente (CUDA + GPU) como la arquitectura alternativa más creíble (LPUs). Esto es una estrategia a nivel de Github que MSFT compra. Cualquier laboratorio de IA que evalúe "construir vs comprar frente a proveedor alternativo" ahora se enfrenta a:
- Opción A (GPUs Nvidia)
- Opción B (LPUs Nvidia <> Groq)
- Opción C (empezar desde cero)
Al convertir una amenaza competitiva en una herramienta de segmentación de clientes, Jensen es el maestro de los oficios. Ahora pueden discriminar por precio: los clientes premium pagan por GPUs, la inferencia sensible al precio se canaliza a las LPUs, y Nvidia captura ambas.
Si Nvidia no integra LPUs en su hoja de ruta, esto fue una jugada puramente defensiva. Si lo integran y empiezan a ofrecer paquetes de "GPU para entrenamiento, LPU para inferencia", esto se convierte en una adquisición de manual que ampliará el foso.
Lo más caro de la tecnología no es construir el futuro, sino impedir que alguien más construya un futuro sin ti.

32
Los comentarios principales también son bots. La IA literalmente está tomando el control.

near21 dic, 03:22
buscando "imágenes de tsunami" en YouTube en 2025
casi todos los vídeos ahora son IA. millones de visualizaciones cada uno
30
Populares
Ranking
Favoritas
