NVIDIA於Hot Chips 2024大會公布最新MLPerf 4.1推論測試結果,不但首次揭露Blackwell實際運作效能,也展示FP4資料類型帶來的優勢。
Blackwell跑分來啦
MLPerf是由學術界、研究實驗室和業界人士共同組成組織,旨在打造公正且能夠反映實際應用情境的AI運算測試基準,在最新4.1版中加入了Mixtral 8x7B Mixtral of Experts大型語言模型的測試,它是款結合8種「專家」的稀疏混合專家網路(Sparse Mixture-of-Experts Network),能在每層網路處理每組字詞(Token)時選擇其中2種專家混合推論並輸出結果。。
延伸閱讀:NVIDIA於Hot Chips 2024大會展示液冷GB200,提升資料中心效能與能源效率
NVIDIA在最新公布的MLPerf 4.1推論測試結果中,展示使用Blackwell GPU搭配FP4資料類型的運算效能,受益於第2代Transformer引擎與支援FP4的Tensor Core 張量核心,能夠帶來4倍於H100 GPU的效能表現。
雖然FP4的精準度較低,但是有著推論運算更快以及模型占用較少空間的優勢,能在犧牲些微精準度的前提下,大幅提升推論速度,並節省儲存模型的空間以及傳輸資料的頻寬,仍有相當大的應用優勢。










Hot Chips 2024大會將於8月25日至27日之間在史丹佛大學舉辦,更多資訊可以參考官方網站。
請注意!留言要自負法律責任,相關案例層出不窮,請慎重發文!