Chủ đề thịnh hành
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Dev Shah
Tăng ROAS lên gấp 4 lần với AI Agents @leoadsai | Tác nhân AI sinh học được xây dựng trước đây @ MGH, BMC | Prev thành lập @profilecityhq, @nnsphere (được hỗ trợ bởi Nvidia)
Google sẽ không bao giờ bán TPUs. Ngay khi Google bán TPUs với quy mô lớn, họ biến lợi thế kiến trúc của mình thành hàng hóa.
Các đội ngũ nội bộ của Google có quyền ưu tiên đầu tiên đối với công suất TPU vì những khối lượng công việc đó trực tiếp tạo ra doanh thu và các rào cản chiến lược. Bất kỳ TPU nào được bán ra bên ngoài đều là một TPU không được sử dụng để bảo vệ các động cơ lợi nhuận chính của Google.
Hiện tại, TPUs là lợi thế độc quyền của Google, sự tích hợp dọc cho phép họ vận hành cơ sở hạ tầng AI với chi phí mà các đối thủ không thể cạnh tranh. DeepMind có thể tiêu tốn ngân sách tính toán mà sẽ khiến OpenAI phá sản vì Google không phải trả giá GPU bán lẻ, họ trả chi phí biên TPU nội bộ.
Nếu Google bắt đầu bán TPUs ra bên ngoài:
- Họ phải định giá cạnh tranh so với GPU Nvidia, điều này có nghĩa là tiết lộ cấu trúc chi phí của họ. Đột nhiên, mọi người biết rằng chi phí tính toán AI thực sự của Google không phải là phép thuật.
- Bán TPUs bare metal có nghĩa là công bố thông số chi tiết, điểm chuẩn hiệu suất và giao diện lập trình. Điều này đang trao cho các đối thủ một bản thiết kế cho "cách Google thực sự làm AI ở quy mô lớn." Hiện tại, điều đó là độc quyền. Ngay khi nó trở thành một sản phẩm, nó sẽ bị nghiên cứu, đảo ngược và cuối cùng là sao chép.
- Google Cloud đã bán quyền truy cập TPU qua GCP với giá cao. Nếu họ bắt đầu bán TPUs bare, họ đang cạnh tranh với chính dịch vụ đám mây có biên lợi nhuận cao hơn của mình. Không có người mua tinh vi nào lại trả thêm phí GCP khi họ có thể mua TPUs trực tiếp và chạy chúng với giá rẻ hơn.
Giá TPUs GCP không cạnh tranh so với các lựa chọn GPU, nhưng nó là giá cao. Đây không phải là sự kém cỏi, mà là được định giá một cách có chủ ý để ngăn chặn việc áp dụng bên ngoài quy mô lớn. Google làm cho TPUs có sẵn đủ để tránh các cáo buộc "tích trữ cơ sở hạ tầng" chống độc quyền và để thu hút một số doanh thu đám mây có biên lợi nhuận cao, nhưng họ thực sự không muốn khách hàng bên ngoài tiêu thụ công suất ở quy mô lớn.
So sánh điều này với AWS, công ty bán mọi chip mà họ có thể sản xuất (Graviton, Trainium, Inferentia) vì AWS là một doanh nghiệp cơ sở hạ tầng hàng hóa. Doanh nghiệp cốt lõi của Google là quảng cáo và sản phẩm tiêu dùng phụ thuộc vào cơ sở hạ tầng AI. Bán cơ sở hạ tầng giống như McDonald's bán chuỗi cung ứng của họ cho Burger King, ngay cả khi nó tạo ra doanh thu, bạn đang củng cố các đối thủ và làm yếu đi doanh nghiệp chính của mình.
Bạn không thể đồng thời là nhà cung cấp chip hàng hóa VÀ duy trì lợi thế cơ sở hạ tầng độc quyền. Ngay khi bạn bán, bạn biến nó thành hàng hóa. Ngay khi bạn biến nó thành hàng hóa, lợi thế của bạn sẽ biến mất.
Vì việc bán TPUs có vẻ không hợp lý về mặt chiến lược, tại sao lại có suy đoán rằng Google vẫn theo đuổi điều đó? Tôi nghĩ vì các bộ phận đám mây tại mọi hyperscaler đều có nỗi lo âu vĩnh viễn "chúng ta cần sự khác biệt", và chip tùy chỉnh trông giống như sự khác biệt. Nhưng sự khác biệt chỉ quan trọng nếu nó bảo vệ biên lợi nhuận hoặc chiếm lĩnh thị phần mà không phá hủy doanh nghiệp cốt lõi của bạn. Việc Google bán TPUs sẽ là sự khác biệt mà tạo ra giá trị ít hơn so với nó tạo ra.
1
Nvidia đã trả 3 lần định giá của Groq vào tháng 9 để mua lại công ty này. Điều này mang tính chiến lược hạt nhân.
Mỗi phòng thí nghiệm AI đều phụ thuộc vào GPU, tạo ra rủi ro tập trung lớn. Google đã thoát khỏi điều này với TPUs cho việc sử dụng nội bộ, chứng minh rằng câu chuyện "Nvidia hoặc không có gì" là sai. Điều này không chỉ chứng minh tính khả thi về mặt kỹ thuật, mà còn tiết lộ rằng hàng rào bảo vệ của Nvidia nông hơn những gì thị trường tin tưởng. Khi một hyperscaler thành công trong việc xây dựng silicon tùy chỉnh, mọi người mua tinh vi bắt đầu tính toán "chúng ta có nên tự xây dựng không?". Điều này làm giảm quy mô thị trường khả thi (TAM) của Nvidia.
Jonathan Ross (người sáng lập Groq) là người phát minh ra TPU. Ông hiểu các nguyên tắc kiến trúc đã làm cho việc tăng tốc AI không dựa vào GPU trở nên khả thi. Kiến trúc LPU của ông nhắm đến khối lượng công việc suy diễn, nơi mà GPU thực sự được thiết kế quá mức. Điều này quan trọng vì suy diễn là nơi có tiền thực sự trong dài hạn. Đào tạo là chi phí vốn một lần, nhưng suy diễn là chi phí hoạt động định kỳ mà tăng theo mức sử dụng. Nếu Groq chứng minh rằng LPUs có thể đạt được hiệu suất giá cả cạnh tranh trong suy diễn, mọi nhà cung cấp đám mây sẽ gán nhãn trắng cho kiến trúc của họ. Nvidia sẽ bị ép vào "chỉ đào tạo" trong khi mất đi dòng thu nhập định kỳ.
Có thể coi thỏa thuận này là Nvidia đang bảo hiểm chống lại việc Groq cho phép một hệ sinh thái hoàn toàn các lựa chọn thay thế cho Nvidia. Nhưng điều thú vị hơn là hiệu ứng bậc hai, sự khóa chặt khách hàng. Bây giờ, Nvidia sở hữu cả tiêu chuẩn hiện tại (CUDA + GPU) và kiến trúc thay thế đáng tin cậy nhất (LPUs). Điều này giống như MSFT mua Github ở cấp độ chiến lược. Bất kỳ phòng thí nghiệm AI nào đang đánh giá "xây dựng so với mua so với nhà cung cấp thay thế" giờ đây phải đối mặt với:
- Lựa chọn A (Nvidia GPUs)
- Lựa chọn B (Nvidia <> Groq LPUs)
- Lựa chọn C (bắt đầu từ đầu)
Biến mối đe dọa cạnh tranh thành công cụ phân khúc khách hàng, Jensen là bậc thầy của các giao dịch. Họ giờ đây có thể phân biệt giá: khách hàng cao cấp trả tiền cho GPUs, suy diễn nhạy cảm về giá được chuyển đến LPUs, và Nvidia thu được cả hai.
Nếu Nvidia không tích hợp LPUs vào lộ trình của mình, đây chỉ là một động thái phòng thủ thuần túy. Nếu họ tích hợp nó và bắt đầu cung cấp các gói "GPU cho đào tạo, LPU cho suy diễn", điều này trở thành một vụ mua lại mở rộng hàng rào bảo vệ theo sách giáo khoa.
Điều đắt giá nhất trong công nghệ không phải là xây dựng tương lai, mà là ngăn chặn người khác xây dựng một tương lai mà không có bạn.

3
các bình luận hàng đầu cũng là bot. AI thực sự đang chiếm lĩnh.

near03:22 21 thg 12
tìm kiếm "video sóng thần" trên YouTube vào năm 2025
hầu như video nào cũng là AI bây giờ. hàng triệu lượt xem mỗi video
1
Hàng đầu
Thứ hạng
Yêu thích
