NVIDIA 近日發布其 H100 AI 加速器的新基準測試,並與 AMD 最近發布的 Instinct MI300X 加速器進行比較,表示在最佳化下效能依舊領先對手。
NVIDIA H100 在最佳化下比競品快 47%
這些最新的基準測試旨在展示 H100 在使用適當軟體時如何比競爭對手提供更快的性能,這在 AMD 最近的展示中並未實現。
在 AMD 的 "Advancing AI" 展示中,公司推出旨在進入資料中心 AI 領域的 Instinct MI300X 加速器。AMD 表示,在單個 GPU 比較中,Instinct MI300X 的性能比 H100 快將近 20%,而在 8 GPU 伺服器比較中,則快了 60%。然而,NVIDIA 迅速回應這些基準測試,並指出這些結果並非事實。
NVIDIA 表示,自家 H100 自 2022 年發布以來,在軟體方面經歷多項改進,最近的 TensorRT-LLM 更進一步提升 AI 專用工作負載性能以及核心層面最佳化,這些改進讓 H100 能夠使用 FP8 操作執行諸如 Llama 2 70B 這樣的模型。
NVIDIA 發布的基準測試顯示,與 AMD 活動期間展示的結果相比,當使用最佳化的軟體工作流程時,單個 DGX H100 伺服器的速度提升兩倍。此外,該伺服器比 AMD Instinct MI300X 8-GPU 解決方案快 47%。
NVIDIA 使用這些新基準測試是合理的,因為 AMD 在評估其 GPU 性能時也使用了最佳化軟體。NVIDIA 圍繞 CUDA 生態系統以及新興 AI 市場軟體已投入多年努力和開發,而 AMD 的 ROCm 6.0 則是新加入選手,還未在真實情境下進行測試。儘管如此,AMD 也已與包括微軟、META 等在內的大型公司達成大量交易,這些公司將 Instinct MI300X 視為 NVIDIA AI 解決方案的替代品。
預計 Instinct MI300X 和 Instinct MI300A 將於 2024 年上半年推出,與 NVIDIA 推出更快的 Hopper H200 的時間相近,隨後還將在 2024 年下半年推出 Blackwell B100,AI 領域的競爭預計將更加激烈。
延伸閱讀