ASUS 華碩今 (19) 於 NVIDIA GTC 2025 大會推出配備 NVIDIA GB300 NVL72 全新平台的 ASUS AI POD,目前已獲得關鍵訂單。華碩也於大會中展示一系列搭載 Blackwell 和 HGX 的 AI 及 GPU 伺服器,包括企業適用的最新 NVIDIA Blackwell Ultra GPU、NVIDIA B300 NVL16、NVIDIA DGX B200 NVL8 和 HGX H200 系列伺服器,及支援 NVIDIA RTX PRO 6000 Blackwell Server Edition 的 MGX 架構伺服器。同時華碩還為了加速 AI 開發者與研究人員進行原型設計和 AI 推論,特別推出超小型桌面級 AI 超級電腦 — ASUS Ascent GX10。
華碩於 GTC 2025 展示 AI POD 伺服器
華碩致力於推動 AI 技術普及,透過整合 NVIDIA AI Enterprise 軟體平台與 NVIDIA Omniverse 平台,為企業客戶提供完整的 AI 基礎架構解決方案,同時推出個人適用的超級電腦,加速 AI 技術研發與產品上市進程。透過有效降低 AI 導入門檻,企業與個人得以加速數位轉型,在市場競爭中取得先機。
搭載 NVIDIA GB300 NVL72 的 ASUS AI POD
ASUS AI POD 整合 NVIDIA GB300 NVL72 伺服器平台的強大效能,提供卓越的處理運算能力,助企業輕鬆應對 AI 領域的高強度挑戰。GB300 NVL72 採用最新的 NVIDIA Blackwell Ultra,憑藉最佳化運算、擴增記憶體及高效能網路連線,發揮突破性效能,引領 AI 走向新紀元。產品採用機架規模設計,配備 72 個 NVIDIA Blackwell Ultra GPU 和 36 個 Grace CPU,顯著提升 AI 每秒浮點運算次數 (FLOP),並提供最高每機架 40 TB 的高速記憶體配置。ASUS AI POD 更整合 NVIDIA Quantum-X800 InfiniBand 和 Spectrum-X Ethernet 網路平台,搭載易於維護的 SXM7 與 SOCAMM 模組、採用 100% 液冷設計,並支援兆級參數 LLM 推論和訓練。此為 AI 基礎設施的重大突破,為客戶提供可靠且可擴展的解決方案,以滿足不斷增長的AI需求。
華碩已具備 NVIDIA GB200 NVL72 架構的資料中心建置經驗,為了降低資料訓練和推論延遲,華碩於 GTC 中進一步展示了 ASUS RS501A-E12-RS12U。這款強大的 SDS 伺服器能有效強化 NVIDIA GB200 NVL72 的運算效能,並實現軟體定義儲存架構的最高計算效率。從硬體到雲端應用,華碩涵蓋架構設計、先進的冷卻解決方案、機架安裝、大規模驗證/部署和AI平台,以豐富全面的專業知識,賦予客戶實現打造卓越的 AI 基礎設施,更能加速上市時間。
NVIDIA GPU 產品副總裁 Kaustubh Sanghani 表示:「NVIDIA 正與華碩攜手推動資料中心的下一波技術創新,華碩以領先業界的伺服器結合 Blackwell Ultra 平台,將加速訓練及推論,有助於企業在 AI 推論和 AI 代理等領域中,發掘新的可能性。」
專為繁重之生成式 AI 工作負載打造的 GPU 伺服器
華碩於 GTC 展示一系列支援 NVIDIA AI Enterprise 和 Omniverse 平台應用的 NVIDIA 認證伺服器,能無縫處理資料和計算,提升生成式 AI 應用程式之服務效能。ASUS 10U ESC NB8-E11 配備了 NVIDIA Blackwell HGX B200 8-GPU,提供無與倫比的 AI 性能。其中,ASUS XA NB3I-E12 搭載 HGX B300 NVL16,具備更高的 AI 每秒浮點運算次數、配備 2.3TB HBM3e 記憶體,並整合 NVIDIA Quantum-X800 InfiniBand 和 Spectrum-X Ethernet 網路平台,其 Blackwell Ultra 可為 AI 推論、AI 代理及視訊推論應用提供突破性效能,滿足各類資料中心不斷演進的需求。另外,7U ASUS ESC N8-E11V 雙插槽伺服器配備八個 NVIDIA H200 GPU,同時支援氣冷和液冷選項,採用可有效散熱的設計與創新零件,能夠提供卓越的散熱效率、擴充能力及前所未有的效能。
可擴充伺服器 全面最佳化 AI 推論效能
華碩亦推出專為 AI 推論設計的伺服器與邊緣 AI 解決方案 — ASUS ESC8000 系列,搭載了最新 NVIDIA RTX PRO 6000 Blackwell Server Edition GPU。ASUS ESC8000-E12P 是一款高密度 4U 伺服器,可容納八個雙插槽的高階 NVIDIA H200 GPU,並支援 NVIDIA AI Enterprise 與 Omniverse 軟體平台,全面相容 NVIDIA MGX 架構,確保靈活擴展及快速與大規模部署。此外,ASUS ESC8000A-E13P 作為 4U NVIDIA MGX 伺服器,亦支援八個雙插槽 NVIDIA H200 GPU,為現代資料中心與動態 IT 環境提供無縫整合、最佳化及高度擴展性。
超小型桌面級 AI 超級電腦 — ASUS Ascent GX10
華碩發表最新的超小型桌面級 AI 超級電腦 ASUS Ascent GX10,以精巧設計打造卓越效能。其搭載 NVIDIA GB10 Grace Blackwell 超級晶片,擁有 1000 AI TOPS 的強大運算能力,專為高強度工作負載設計。ASUS Ascent GX10 配備 Blackwell GPU 和 20 核心 Arm CPU,擁有 128 GB 記憶體,支援高達 2000 億參數的 AI 模型,提供全球開發者、AI 研究人員和資料科學家,在辦公桌上就能進行 AI 模型設計、調校和 AI 推論的能力。
華碩物聯網 (ASUS IoT) 亦於 GTC 展示先進的邊緣 AI 運算能力,強調在 AI 推論的卓越表現。ASUS IoT PE2100N 邊緣 AI 電腦,採用 NVIDIA Jetson AGX Orin 和 NVIDIA JetPack SDK,提供高達 275 TOPS 的運算效能,適合生成式 AI、視覺語言模型 (VLM) 和大型語言模型 (LLM) 應用,可透過自然語言與影片/影像互動,以進行事件識別或物體偵測。具備低功耗設計和支援可選的 4G/5G 及 Out-of-Band 技術,非常適合智慧城市、機器人和車載應用解決方案。
此外,ASUS IoT PE8000G 堅固型邊緣 AI GPU 電腦,支援雙 450W NVIDIA RTX PCIe 顯卡,在即時 AI 推論、預處理和感知 AI 方面表現卓越。具有靈活的 8-48V DC 電源輸入、點火電源控制,並可在 -20°C 至 60°C 的嚴苛環境中穩定運行,適用於電腦視覺、自主車輛、智慧影片分析和生成式 AI 應用。
打造卓越的基礎設施 兼顧效能提升與成本降低
華碩致力於提供創新的 AI 基礎設施解決方案,滿足高效能運算 (HPC) 與 AI 工作負載的嚴苛需求,藉由精心設計的伺服器與儲存系統,提升效能、可靠性與擴展性,滿足多元企業需求。
華碩所提供的 L12 基礎設施解決方案,搭載節能電源、高效冷卻系統與雲端服務與應用,推動資料中心在生命周期中實踐永續。除了卓越的硬體基礎設施,華碩更結合自行開發的 ASUS Infrastructure Deployment Center (AIDC) 滿足大規模部署需求,並整合 ASUS Control Center (ACC) 進行 IT 遠端監控管理,同時支援 NVIDIA AI Enterprise 與 Omniverse 平台,協助客戶實現無縫的 AI 與 HPC 體驗。藉由結合軟硬體的一站式整合服務,不僅有效降低營運成本、總擁有成本 (TCO) 與電源使用效率 (PUE),大幅減少環境影響,更可確保維持高效的服務標準。
華碩自 1995 年來,深耕伺服器產業已累積逾 30 年經驗,持續助力客戶在 AI 競賽上取得優勢地位。憑藉華碩創新 AI 驅動解決方案,支援動態工作負載管理,確保最有效率的運算資源分配,並以華碩業界領先之技術與專業知識,協助企業應對 AI 基礎設施發展所帶來的挑戰,驅動產業創新、實踐永續目標。