
AMD 宣布 Zyphra 在大規模 AI 模型訓練方面達成重大里程碑,得益於 AMD Instinct MI300X GPU、AMD Pensando 網路技術、AMD ROCm 開放軟體堆疊,成功開發出首個採用 AMD GPU 與網路平台訓練而成的大規模混合專家 (MoE) 基礎模型 ZAYA1。
AMD AI 硬體挹注 Zyphra ZAYA1 訓練動能
Zyphra 測試結果顯示,該模型在推理、數學及編碼等基準測試中,與頂尖開放模型相比,展現出具有競爭力甚至更卓越的效能,充分彰顯 AMD Instinct GPU 在生產級 AI 工作負載方面的可擴展性與效率。
AMD 人工智慧事業群人工智慧與工程全球副總裁 Emad Barsoum 表示:「AMD 在加速運算領域的領導地位,正為 Zyphra 等創新者挹注動能,持續突破 AI 領域的極限。這項里程碑展示了 AMD Instinct GPU 與 Pensando 網路技術在訓練複雜大規模模型方面的強大能力與靈活性。」
Zyphra 執行長 Krithik Puthalath 指出:「效率一直是 Zyphra 的核心指導原則,影響著 Zyphra 如何設計模型架構、開發訓練與推論演算法,並選擇具備最佳性價比的硬體,以向客戶提供前瞻性的智慧。ZAYA1 體現了這項理念,很高興成為首家在 AMD 平台上展示大規模訓練的公司。這個成果彰顯將模型架構與晶片及系統共同設計的強大力量,期待在建構下一代先進多模態基礎模型的進程中,深化與 AMD 及 IBM 的合作。」
AMD Instinct GPU 為大規模高效訓練挹注強大動能
AMD Instinct MI300X GPU 具備 192 GB 高頻寬記憶體,實現高效的大規模訓練,無須仰賴成本高昂的專家或張量分片 (tensor sharding),從而降低複雜度並提升整個模型堆疊的吞吐量。Zyphra 亦指出,透過 AMD 最佳化的分散式 I/O,模型儲存時間加快 10 倍以上,進一步提升訓練的可靠性與效率。ZAYA1-Base 僅以極小部分的活躍參數,總參數量 8.3B、活躍參數 760M 的效能已可媲美甚至超越 Qwen3-4B (阿里巴巴)、Gemma3-12B (Google)、Llama-3-8B (Meta) 和 OLMoE 等模型。
基於先前的合作基礎,Zyphra 與 AMD 及 IBM 緊密合作,設計並部署搭載 AMD Instinct GPU 及 AMD Pensando 網路互連技術的大規模訓練叢集。這套由 AMD 與 IBM 共同開發的系統已於本季稍早發表,結合 AMD Instinct MI300X GPU 與 IBM Cloud 的高效能網路與儲存架構,為 ZAYA1 大規模預訓練奠定基礎。
欲進一步了解測試結果,ZAYA1 模型架構、訓練方法以及本次開發所使用的 AMD 技術,請參閱 Zyphra 技術報告、Zyphra 部落格及 AMD 部落格。










