在 SIGGRAPH 2025 大會上,Intel 展示旗下 Arc B580 GPU 在 1440p 解析度下實現的即時路徑追蹤,並導入類似光線重建的 AI 降噪技術,提升內建 GPU 視覺效果與效能水準。
Intel Arc B580 內顯發展再進化,展示即時運算實力
在今年 SIGGRAPH 2025 與 HPG 大會上,Intel 發表多項關於內顯與獨顯 GPU 效能與畫質提升的研究與實作成果,特別是旗下 Arc B580 顯示晶片上,Intel 實現了極具挑戰性的即時路徑追蹤演算場景:一個擁有一兆個三角形的叢林遺跡動畫場景,在 1440p 解像度下穩定運行於 30 FPS。
這代表 Intel 已成功將 AAA 等級畫質的特效渲染體驗,從獨顯拓展到效能受限的內顯平台上,展現其圖形硬體與 AI 軟體整合實力。
在路徑追蹤過程中,每個像素只採樣一條光路,導致初始畫面雜訊極高。Intel 導入了一套自家開發的時空聯合神經網路降噪與超取樣模型 (spatiotemporal joint neural denoising + supersampling),能有效重建紋理與陰影細節,將粗糙畫面轉換為可用影像。
這種方法與 NVIDIA DLSS 3.5 的 Ray Reconstruction、AMD 正在開發的 FSR Redstone 雷射再生技術有異曲同工之妙,卻更針對 Intel 自家 Xe 架構進行最佳化。
Intel 也公開 AI 模型在處理畫質提升時會遇到的典型難題,包括:
-
紋理細節模糊:降噪模型為降低雜訊可能會誤刪除高頻細節。
-
畫面閃爍與殘影:模型缺乏時間穩定性時,畫面間可能出現閃爍。
-
摩爾紋與反鋸齒問題:高頻圖案在採樣不足時會出現干擾。
-
遮擋處 (Disocclusion) 難重建:新出現區域因無前幀參考而難以還原。
-
陰影與反射困難:缺乏輔助資訊時,AI 難以精準重建複雜光影。
為解決這些問題,Intel 採用大量含不同光源與動畫樣本的訓練資料,以提升模型的泛化能力與重建品質。
Intel 同場展示一項名為 Texture Set Neural Compression (TSNC) 的 AI 紋理壓縮方案,並與 DirectX Cooperative Vectors 合作運行,在不犧牲畫質的情況下壓縮紋理記憶體佔用、提升載入速度與 FPS 表現。
實測顯示:
-
在 Intel Arc B580 上,TSNC 與傳統 BC6 壓縮表現持平,甚至略勝一籌
-
在 Arc 140V (Lunar Lake) 平台上,TSNC 配合硬體加速可達 2.1ms 輸出效能,顯著優於傳統方式
這項技術未來將有助於整合 GPU 運行大型場景時減少 VRAM 壓力。
Intel 同時宣布即將推出 Open Image Denoise 2 (OIDN 2),該版本將進一步支援跨平台 GPU (NVIDIA、AMD、Intel) 並導入神經網路結構,加速降噪過程與強化畫質一致性。
作為開源工具,OIDN 未來可被更多開發者導入遊戲與圖形應用,代表 Intel 正嘗試扮演更積極的開放社群參與者角色。
這次展示證明,Intel 在圖形技術上正不斷突破自身限制,特別是在內建 GPU 與 AI 加速演算法的結合上取得關鍵進展。透過 Arc B580 GPU 的實測成果,Intel 不僅展現其硬體潛力,更透過開源與 AI 模型創新,準備在未來圖形運算領域擔任更積極的參與者。
延伸閱讀