Como en el pasado, este tipo de noticias debería provocar al menos un gran aumento. Ahora realmente no hay burbuja. $MU Última memoria de servidor AI de bajo consumo (3 veces más eficiente) y alta capacidad de 256G, desarrollando junto con NVIDIA el próximo chip de memoria principal para servidores AI de próxima generación, destacando la solución para aplicaciones de contexto largo. El mercado de memoria AI está pasando de competir por capacidad a competir por eficiencia energética, Micron está aprovechando directamente el punto crítico para abrir una nueva curva de crecimiento de alta rentabilidad fuera de HBM. Además, el concepto de fabricación en EE. UU.