華碩今宣布旗下 GPGPU 伺服器、通用伺服器均可支援最新 NVIDIA AI 解決方案(Tesla V100 32GB 與 Tesla P4);近年來推動 AI 革命的神經網路規模亦大幅成長,例如:目前用於語言翻譯的 Google MOE 神經網路模型擁有80億個參數,但在兩年前卻只有1億個。
此次 NVIDIA 新推出的 Tesla V100具備32GB 記憶體配置,可提升新一代 AI 模型深度學習訓練效能達50%,不僅能讓 AI 開發人員將在更短時間內達成突破性成果,亦相當適合高效能運算(HPC)與大規模 HPC 部署;另一方面,Tesla P4為全球最快的深度學習推理 GPU,可減少10倍推理延遲,以及提供比 CPU 高出40倍的能源效率,使用者如安裝於橫向擴展伺服器上,將能實現兼具智慧與互動性的新一代 AI 服務應用。
憑藉上述 GPU 功能,華碩 GPGPU 伺服器及通用伺服器亦整裝待發,全方位支援 Tesla V100 32GB、Tesla P4;其中,ESC8000 G4得支援8張 Tesla V100 32GB,搭配可輕鬆切換的專利拓樸技術,將能執行更大批次的模擬作業,還有可支援4張 Tesla V100 32GB 或8張 Tesla P4的 ESC4000 G4,至於 RS720-E9,則可支援 Tesla P4,其內蘊絕佳的推理能力,能滿足各種 AI 負載需求。
請注意!留言要自負法律責任,相關案例層出不窮,請慎重發文!