Meta 成為首家訂購 NVIDIA Blackwell B200 AI GPU 的大型科技公司,預計今年稍晚開始交付,將用於訓練其專屬大語言模型,代表著 NVIDIA 在 AI 市場的持續優勢地位。
Meta 下單 NVIDIA Blackwell B200 AI GPU
NVIDIA 的 GTC 2024 大會對該公司來說已證明相當成功,特別是在公司憑藉其最新的 Blackwell AI 平台獲得的行業曝光方面,更是吸引全球目光,領銜的 Blackwell B200 AI GPU,其在性能上較前代 Hopper 有了巨大飛躍,也引起大量客戶興趣。
Meta expects to receive initial shipments of Nvidia’s new flagship AI chip, the B200 Blackwell chip, later this year, Reuters reports, noting Nvidia CFO Colette Kress said of the B200 GPU, “we think we’re going to come to market later this year,” but volume shipments will not…
— Dan Nystedt (@dnystedt) March 20, 2024
據報導,Meta 已下達 B200 的初始訂單,成為首家訂購 NVIDIA 最新 AI 產品的大型科技公司。然而,NVIDIA 的首席財務官 Colette Kress 表示,公司將在 2025 年才帶著 Blackwell 產品進入市場,可能暗示該系列大規模採用的時間表。
Meta 是 NVIDIA 進軍 AI 市場的忠實粉絲
眾所周知,Meta 一直是 NVIDIA 進軍 AI 市場的忠實支持者,據報導,到今年年底 Meta 將累計採購 60 萬台 H100,無疑是該公司最大的客戶之一。Meta 的執行長祖克柏也表示,計劃將使用 Blackwell 平台訓練公司的「Llama」模型,有望在計算能力上獲得優勢。
Nvidia CEO Jensen Huang said he's working with TSMC to avoid bottlenecks in chip packaging like that seen with the H100, Reuters reports. "The volume ramp in demand happened fairly sharply last time, but this time, we've had plenty of visibility" of demand, Huang said. $NVDA $TSM…
— Dan Nystedt (@dnystedt) March 20, 2024
NVIDIA 執行長黃仁勳也表示,AI 領域每年有 2,500 億美元商機,公司將憑藉其最新的 AI GPU 加速器獲得大部分市占。
如今,全球資料中心規模為 1 萬億美元,每年價值 2,500 億美元。我們以零組件形式銷售整個資料中心市場,因此我們在這 2,500 億美元中的比例可能遠遠高於只銷售一個晶片的公司,它可能是 GPU 晶片、CPU、亦或是網路晶片。但 NVIDIA 生產的是資料中心規模的加速計算平台。因此,我們在這 2,500 億美元中的比例可能會高於過去。
- 黃仁勳 - NVIDIA 執行長 (GTC 問答環節)
Blackwell B200 規格一覽
關於 Blackwell B200 的規格,它包含 160 個 SM,共 20,480 個 CUDA 核心。採用最新的 NVLINK 互連技術,支援相同的 8 GPU 架構和 400 GbE 網路交換器。
- 台積電 4NP 製程。
- 多晶片封裝 GPU。
- 單 GPU 1040 億電晶體、雙 GPU 2080 億電晶體。
- 160 個 SM (20,480 個核心)。
- 8 個 HBM 封裝。
- 192GB HBM3e 記憶體。
- 8 TB/s 記憶體頻寬。
- 8192-bit 記憶體匯流排。
- 8 層堆疊 HBM3e。
- 支援 PCIe 6.0。
- 峰值 700W TDP。
Meta 訂購 NVIDIA 的 Blackwell B200,將代表著向下一代市場的過渡,在這個市場中,NVIDIA 有望再次保持其優勢地位。
延伸閱讀