AMD CTO 受訪表示 AI 推論將從資料中心轉向手機與筆電等邊緣裝置,並藉此機會挑戰 NVIDIA 長期以來在 AI 訓練領域的主導地位,主打低功耗、高效率的消費型運算解決方案。
AMD 認為邊緣裝置將成新 AI 主戰場
AI 發展初期至今,市場焦點大多集中在模型訓練與雲端超級運算能力建構。但如今,推論 (Inference) 正成為主流關鍵詞,並且正迅速轉向「邊緣運算」(Edge AI) 端點設備。AMD 技術長 Mark Papermaster 在接受《Business Insider》專訪時表示,推論運算的未來將由手機、筆電等消費型裝置主導。
Papermaster 明言,昂貴的雲端 AI 計算成本將逼迫大型科技企業 (如 Microsoft、Meta、Google) 重新思考運算架構,將大幅推升對於本地 AI 處理能力的需求,並讓邊緣裝置成為 AI 應用的主要載體。
他強調,這也是 AMD 為何比競爭對手更認真看待「AI PC」概念的主因。Intel 與 Qualcomm 雖然也在布局,但 AMD 透過全新 APU 架構如 Strix Point 與 Strix Halo,將強大的 AI 運算能力壓縮進筆電級別的晶片中,試圖打造效能、成本兼具的消費型 AI 平台。
Papermaster 也表示:「現在只是轉變的開始,我們才剛看到這個趨勢的起頭,接下來發展速度會非常快。」
AI 模型越來越大,效率與準確度的最佳化成為各家企業的新戰場。Papermaster 指出,當前的 AI 模型正在朝向更節能、更可部署的方向發展,隨著像 DeepSeek 這類新興模型的崛起,裝置端的推論能力將更快普及。
AMD 預測,在未來幾年內,大多數 AI 應用將能夠在本地裝置上完成推論運算,減少對雲端資源的依賴,並帶來更即時、更隱私的使用者體驗。
Papermaster 認為,資料中心 AI 訓練市場已經被 NVIDIA「壟斷」。在這種現況下,AMD 若想與 NVIDIA 一爭高下,最有潛力的方向便是搶佔推論市場,特別是在裝置端,而非雲端。
這與 Intel 前執行長 Pat Gelsinger 曾說過的「推論是未來主流」觀點不謀而合。當前在 AI 訓練領域「無法匹敵」的競爭對手們,正透過推論與邊緣運算來尋找破口,而 AMD 無疑已率先投入這場轉型。
AI 發展已從集中式的雲端訓練,邁入分散式的推論應用時代。AMD 憑藉小型化、高效率的 APU 設計與清晰的市場定位,有望在邊緣 AI 領域搶佔領先地位,甚至可能成為挑戰 NVIDIA 長期壟斷的有力競爭者。未來的 AI 不僅只在資料中心運行,更將無所不在,從口袋到書桌,無一不在。
延伸閱讀