AMD 發表首次 MLPerf 基準測試之結果,並在更新的 MLCommons 網站上展示搭載 AMD Instinct MI300X GPU 進行測試的結果,此結果充分顯示 AMD AI 產品的優勢運算能力。
AMD Instinct MI300X 於 MLPerf 呈現優勢性能
MLPerf 有多種基準測試類型,包括 MLPerf Inference : Datacenter、MLPerf Training 以及於 2024 年推出的尖端大型生成式人工智慧 (AI) 語言模型 Llama 2 70B。AMD 選擇了受歡迎且具有重要意義的大型語言模型 (LLM) Llama 2 70B 進行首次 MLPerf 基準測試。
AMD 在 MLPerf Inference v4.1 (MLPerf 4.1推論) 中為 Llama 2 70B 提出3項成果並展示出:
- 市場上最適合用於 AI 任務的 AMD CPU 和 GPU 組合。
- MI300X 擁有 192GB 的大容量記憶體,讓單一 MI300X GPU 可執行整個 Llama 2 70B 模型,而大多數競爭對手的 GPU 則需要將該模型拆分至多個加速器上執行。
- AMD 新一代 CPU 如何提升 AI 任務的效能。
在 MLPerf 4.1 推論中,AMD 的結果展現出搭載 ROCm 的 MI300X 為 Llama 2 70B 等大型 LLM 提供卓越的推論效能,且與其他業界領先者如 Nvidia H100 在 Llama 2 70B LLM 模型上的測試結果不分軒輊。
欲了解更多相關資訊,請參閱 AMD 部落格文章。