NVIDIA (輝達) 在語言理解領域獲得多項突破,讓企業透過即時對話式 AI 能更自然地與顧客互動。
NVIDIA 的 AI 平台率先訓練當今最先進的 AI 語言模型之一 BERT (Bidirectional Encoder Representations from Transformers),用不到一小時就完成訓練,並在 2 毫秒內完成 AI 推論。突破性的效能協助開發者將頂尖語言理解技術導入在各種提供給全球數百萬消費者的超大規模應用。
率先採納 NVIDIA 先進效能成果的業者包括 Microsoft 與許多全球最具創新力的新創公司,透過 NVIDIA 平台著手為其客戶開發能即時反應的高度直覺化語言服務。
雖然有限度的對話式 AI 服務已存在多年,然而發展至今,包括聊天機器人、智慧個人助理與搜尋引擎等服務想要以人類理解力的水準運作仍極為困難,主要原因是無法即時部署超大規模的 AI 模型。NVIDIA 透過在其 AI 平台導入多項關鍵的優化技術藉以解決這項問題,不僅在 AI 訓練與推論方面刷新速度紀錄,同時也建構出至今最大的語言模型。
最快訓練、最快推論與最大模型
以自然語言理解技術運行的AI服務預計在未來幾年呈現指數成長。根據 Juniper Research 的報告,光是數位語音助理市場規模預計在未來 5 年內將從 25 億美元成長到 80 億美元。此外, Gartner 也預測 2021 年,15% 的客服互動將完全由 AI 執行,與 2017年相比增加400%。
NVIDIA 力助邁入新時代,藉由多項關鍵優化微調其 AI 平台,創下三項新的自然語言理解效能紀錄:
- 最快訓練:採用內建由 1,472 個 NVIDIA V100 GPU 組成 92 個 NVIDIA DGX-2HTM系統的 NVIDIA DGX SuperPODTM,執行全球最先進的 AI 語言模型之一 BERT 的大型版本,成功把 BERT-Large 的訓練時間從先前的數日大幅縮短至僅 53 分鐘。此外,NVIDIA 也能透過僅一台 NVIDIA DGX-2 系統在 2.8 天內就完成 BERT-Large 的訓練,展現 NVIDIA GPU 在對話式 AI 領域的擴充性。
- 最快推論:NVIDIA 以 NVIDIA T4 GPU 運行 NVIDIA TensorRT™,在 BERT-Base SQuAD 資料集上僅用 2.2 毫秒就完成推論,不僅遠低於許多即時應用要求的 10 毫秒的處理門檻,也大幅領先以高度優化 CPU 程式碼執行的 40 毫秒。
- 最大模型:針對開發者對於更大模型永無止境的需求,NVIDIA Research 在 Transformers 的基礎上著手建構與訓練全球最大的語言模型,並導入 BERT 採用的技術元件,以及許多其他自然語言的 AI 模型。NVIDIA的客製化模型擁有 83 億個參數,數量足足比 BERT-Large 多出 24 倍。
資料來源:NVIDIA新聞稿