ADVERTISEMENT
Supermicro, Inc. 為 AI、雲端、儲存和 5G/邊緣領域的全方位 IT 解決方案製造商,推出可立即部署式液冷型 AI 資料中心。此資料中心專為雲端原生解決方案而設計,透過 SuperCluster 加速各界企業對生成式 AI 的運用,並針對 NVIDIA AI Enterprise 軟體平台最佳化,適用於生成式 AI 的開發與部署。
透過 Supermicro 的 4U 液冷技術,NVIDIA 近期推出的 Blackwell GPU 能在單一 GPU 上充分發揮 20 PetaFLOPS 的 AI 效能,且與較早的 GPU 相比,能提供 4 倍的 AI 訓練效能與 30 倍的推論效能,並節省額外成本。
配合此率先上市的策略,Supermicro 近期推出基於 NVIDIA Blackwell 架構的完善產品系列,支援新型 NVIDIA HGX B100、B200 和 GB200 Grace Blackwell Superchip。
ADVERTISEMENT
Supermicro 總裁暨執行長梁見後表示:「Supermicro 在打造與部署具有機櫃級液冷技術的 AI 解決方案方面持續領先業界。資料中心的液冷配置設計可幾近免費,並透過能持續降低用電量的優勢為客戶提供額外價值。我們的解決方案針對 NVIDIA AI Enterprise 軟體最佳化,滿足各行各業的客戶需求,並提供世界規模級效率的全球製造產能。
因此我們得以縮短交付時間,更快提供搭配 NVIDIA HGX H100 和 H200,以及即將推出的 B100、B200 和 GB200 解決方案的可立即使用型液冷或氣冷運算叢集。從液冷板到 CDU 乃至冷卻塔,我們的機櫃級全方位液冷解決方案最大可以降低資料中心 40% 的持續用電量。」
ADVERTISEMENT
在台北國際電腦展(COMPUTEX 2024)上,Supermicro 展示了即將推出,並針對 NVIDIA Blackwell GPU 最佳化的系統,包括基於 NVIDIA HGX B200 的 10U 氣冷系統和 4U 液冷系統。
此外,Supermicro 也將提供 8U 氣冷型 NVIDIA HGX B100 系統、NVIDIA GB200 NVL72機櫃(具有 72 個透過 NVIDIA NVLink 交換器互連的 GPU)與新型 NVIDIA MGX 系統(支援 NVIDIA H200 NVL PCIe GPU 與最新發表的 NVIDIA GB200 NVL2 架構)。
ADVERTISEMENT
NVIDIA 創辦人暨執行長黃仁勳表示:「生成式 AI 正在推動整個運算堆疊的重置,新的資料中心將會透過 GPU 進行運算加速,並針對 AI 最佳化。Supermicro 設計了頂尖的 NVIDIA 加速運算和網路解決方案,使價值數兆美元的全球資料中心能夠針對 AI 時代最佳化。」
ADVERTISEMENT
隨著大型語言模型(Large Language Model,LLM)的快速發展以及 Meta 的 Llama-3 和 Mistral 的 Mixtral 8x22B 等開源模型不斷推出,企業更容易取得並使用當今最先進的 AI 模型。簡化 AI 基礎設施並以最具成本效益的方式提供存取能力,對於支援目前的快速 AI 變革至關重要。
Supermicro 雲端原生 AI SuperCluster 使即時存取的雲端便利性和可攜性之間得以連結,並透過 NVIDIA AI Enterprise 讓任何規模的 AI 專案,從評估測試階段順暢地進行到實際作業階段。這提供了能在任何地方運行並安全管理資料的靈活性,包括自架系統或地端大型資料中心。
隨著各界企業快速進行生成式 AI 的實驗性使用,Supermicro 與 NVIDIA密切合作,確保完善且靈活地從 AI 應用的實驗和評估試行推動至作業部署和大規模資料中心 AI。此順暢流程是藉由NVIDIA AI Enterprise 軟體平台的機櫃、叢集級最佳化而實現,能使從初步探索至可擴展 AI 落地的過程更流暢無阻。
託管服務涉及基礎架構的選擇、資料共享和生成式 AI 策略控管。NVIDIA NIM 微服務作為 NVIDIA AI Enterprise 的一部分,可在無缺陷情況下提供託管生成式 AI 和開源部署優勢。其多功能推論運行環境透過微服務,可加速從開源模型到 NVIDIA 基礎模型等各類型生成式 AI 的部署。
此外,NVIDIA NeMo 可實現透過資料庋用、進階自訂和檢索增強生成(Retrieval-Augmented Generation,RAG)的客製模型開發,以實現企業級解決方案。與搭配 NVIDIA AI Enterprise 的 Supermicro SuperCluster 整合後,NVIDIA NIM 能為可擴展、加速型生成式 AI 作業的部署提供最快途徑。
Supermicro 目前的生成式 AI SuperCluster 產品包括:
- 液冷型 Supermicro NVIDIA HGX H100/H200 SuperCluster,具有 256 個 H100/H200 GPU,為 5 個機櫃規模的可擴展運算單元(包括 1 個專用網路機櫃)
- 氣冷型 Supermicro NVIDIA HGX H100/H200 SuperCluster,具有 256 個 HGX H100/H200 GPU,為 9 個機櫃規模的可擴展運算單元(包括 1 個專用網路機櫃)
- Supermicro NVIDIA MGX GH200 SuperCluster,具有 256 個 GH200 Grace Hopper Superchip,為 9 個機櫃規模的可擴展運算單元(包括 1 個專用網路機櫃)
Supermicro 的 SuperCluster 支援 NVIDIA AI Enterprise,其中包括 NVIDIA NIM 微服務和 NVIDIA NeMo 平台,能實現端對端生成式 AI 客製,並針對 NVIDIA Quantum-2 InfiniBand 以及具有每 GPU 400Gb/s 網速的新型 NVIDIA Spectrum-X 乙太網路平台最佳化,可擴展到具有數萬個 GPU 的大型運算叢集。
Supermicro 即將推出的 SuperCluster 包括:
- Supermicro NVIDIA HGX B200 SuperCluster,液冷型
- Supermicro NVIDIA HGX B100/B200 SuperCluster,氣冷型
- Supermicro NVIDIA GB200 NVL72 或 NVL36 SuperCluster,液冷型
Supermicro 的 SuperCluster 解決方案針對 LLM 訓練、深度學習以及大規模與大批量推論最佳化。Supermicro 的 L11 和 L12 驗證測試及現場部署服務可為客戶提供無縫順暢體驗。客戶收到隨插即用的可擴充單元後即可在資料中心輕鬆部署,進而更快取得效益。
- 延伸閱讀:Computex 2024:Supermicro創辦人梁見後 Keynote 演說,聚焦AI伺服器和永續運算
- 延伸閱讀:Supermicro 推出三款基於 NVIDIA 技術的全堆疊結構、可立即部署型生成式 AI SuperCluster,從企業規模擴大至 LLM 硬體基礎架構
- 延伸閱讀:Supermicro宣布X13機櫃氣冷、液冷解決方案,支援最新第五代Intel Xeon處理器
ADVERTISEMENT