ADVERTISEMENT
NVIDIA在最新公布的MLPerf Training 4.1測試成績中揭露,Blackwell系列GPU之效能表現最高可達前代產品之2.2倍,並強調自家提供的完整AI解決方案。
GPU單位效能再創新高
MLPerf是由學術界、研究實驗室和業界人士共同組成組織旨在打造公正且能夠反映實際應用情境的AI運算測試基準。最新MLPerf Training 4.1 AI模型訓練效能測試的內容包含Stable Diffusion v2文字生成圖像、GPT-3 175B與Llama 2 70B大型語言模型、R-GAT圖像神經網路、BERT自然語言處理、RetianNet物件偵測的模型訓練與微調。
舉例來說,更新軟體核心(Kernel)改善矩陣相乘的效能並改善GPU(繪圖處理器)中Tensor核心的運算效率,就能達到提高許多深度學習(Deep Learning)的運算效能。透過這種方式,NVIDIA將H100的單GPU訓練效能提高了30%,
另一種提高效能表現的方式,就是改善多GPU叢集的連接與網路環境。透過NVLink、NVSwitch、Quantum-2 InfiniBand網路等高速連接技術組成的11,616組Hopper GPU運算叢集,能在GPT-3 175B訓練測試提高了3倍以上效能。
而最「簡單有效」的解決方案,當然還是升級至新一代GPU。NVIDIA表示採用Blackwell平台的Nyx超級電腦在Llama 2 70B大型語言模型微調的每GPU效能表現為前代H100的2.2倍,而GPT-3 175B預訓練則為2倍,且提交了所有測試項目之成績。
NVIDIA也將自己定位為資料中心平台公司,在累積多年的開發成果後,能夠提供完整的軟、硬體堆疊,在硬體方面小至晶片、大至機櫃甚至資料中心,軟體部分則從最基礎的晶片、系統、叢集軟體與驅動程式,到運算API與函數庫,都有對應的技術與產品,能夠解決企業的加速運算與AI運算需求。
另一方面,NVIDIA也重申「1年節奏」(One Year Rhythm)的產品更新規劃,包含晶片、機櫃、資料中心等不同層級的組合,讓企業能夠根據自身需求選擇最新的解決方案。
請注意!留言要自負法律責任,相關案例層出不窮,請慎重發文!