2024.11.26 07:30

Supermicro 推出直接液冷最佳化的 NVIDIA Blackwell 解決方案

ADVERTISEMENT

Supermicro 宣布推出最高效能的 SuperCluster,此端對端 AI 資料中心解決方案採用 NVIDIA Blackwell 平台,專為兆級參數規模的生成式 AI 時代所設計。全新 SuperCluster 將可大幅增加液冷機架中的 NVIDIA HGX B200 8-GPU 系統數量,與搭載 NVIDIA HGX H100 和 H200 的液冷型 SuperCluster 相比,GPU 運算密度得到大幅提升。此外,Supermicro 正在擴大其 NVIDIA Hopper 系統產品組合,以因應加速型 HPC 應用和主流企業級 AI 技術的快速普及。

經認可的大規模 AI 效能:Supermicro NVIDIA HGX B200 系統

經升級後的 SuperCluster 可擴充單元採用機架級設計,具有創新垂直冷卻液分配歧管,可使單一機架內的運算節點數量增加。新開發的高效散熱冷板和先進的軟管設計可進一步改善液冷系統效率。適合大型部署的新型 In-Row 式冷卻液分配裝置亦可被納入運算叢集的散熱配置內。傳統氣冷資料中心也能運用搭配新型氣冷系統機箱的全新 NVIDIA HGX B200 8-GPU 系統。

全新 Supermicro NVIDIA HGX B200 8-GPU 系統相較於前一代,提供多項升級。這些新系統包含對散熱和電源配置的優化,並支援雙 500W Intel Xeon 6 或 AMD EPYCTM 9005 系列處理器。而全新一款氣冷式 10U 機型 Supermicro NVIDIA HGX B200 系統則採用經重新設計的機箱,具有更佳的散熱空間以支援 8 個 1000W TDP Blackwell GPU。這些系統在 GPU 搭配 NIP 的架構上採用 1:1 比例設計,並支援 NVIDIA BlueField-3 SuperNIC 或 NVIDIA ConnectX-7 NIC,可在高效能運算結構內進行擴充。此外,每個系統所配備的兩個 NVIDIA BlueField-3 資料處理器,能使附加型高效能 AI 儲存裝置之間的資料傳輸處理效率得到提升。

ADVERTISEMENT

採用 NVIDIA GB200 Grace Blackwell 超級晶片的 Supermicro 解決方案

Supermicro 亦提供搭配所有 NVIDIA GB200 Grace Blackwell 超級晶片的解決方案,包括最新發表的 NVIDIA GB200 NVL4 超級晶片和 NVIDIA GB200 NVL72 單機架百萬兆級電腦。

Supermicro 的 NVIDIA MGX 系列設計將支援 NVIDIA GB200 Grace Blackwell NVL4 超級晶片。這款超級晶片啟動了融合式高效能運算與 AI 的未來,並透過 NVLink-C2C 技術,以及四個由 NVIDIA NVLink 連接的 Blackwell GPU 與兩個 NVIDIA Grace CPU,提供了革命性的效能。這些超級晶片與 Supermicro 的液冷型 NVIDIA MGX 模組化系統相容,且相較於上一代產品,能為科學運算、圖神經網路訓練和推論應用提供最高 2 倍的效能。

ADVERTISEMENT

搭配 Supermicro 端對端液冷解決方案的 NVIDIA GB200 NVL72 SuperCluster 能在具有 SuperCloud Composer 軟體的單個機架中組成一個百萬兆級超級電腦,為液冷資料中心提供全面的監控與管理能力。72 個 NVIDIA Blackwell GPU 和 36 個 NVIDIA Grace CPU 皆透過第五代 NVIDIA NVLink和NVLink Switch 連接,能有效地作為單個強大 GPU 運行,並擁有高度容量的 HBM3e 記憶體集區,以實現低延遲的 130TB/s 總 GPU 通訊頻寬。

搭載 NVIDIA H200 NVL 的加速運算系統

Supermicro 的 5U PCIe 加速運算系統現可搭載NVIDIA H200 NVL,適用於需要彈性配置的低功耗、氣冷型企業級機架設計,並能為許多 AI 和高效能運算工作負載進行加。NVIDIA H200 NVL 能藉由 NVIDIA NVLink,將最多四個 GPU 相連,並搭配 1.5 倍記憶體容量,以及透過 HBM3e 得到提高的 1.2 倍頻寬,可實現數小時內的 LLM 快速微調,同時也提供比前一代快 1.7 倍的 LLM 推論效能速度。NVIDIA H200 NVL 亦包含 NVIDIA AI Enterprise 的五年服務,而 NVIDIA AI Enterprise 是一個用於開發與部署生產型 AI 的雲端原生軟體平台。

Supermicro 的 X14 和 H14 5U PCIe 加速運算系統透過 NVLink 技術支援多達兩個 4 路 NVIDIA H200 NVL 系統,在單個系統內可搭載八個 GPU,提供最高 900GB/s 的 GPU 互連傳輸速度,而每 4-GPU NVLink 域的組合集區具有 564GB 的 HBM3e 記憶體。全新 PCIe 加速運算系統支援最高 10 個 PCIe GPU,現在也可搭載最新 Intel Xeon 6 或 AMD EPYC 9005 系列處理器,能為高效能運算和 AI 應用提供彈性且多功能的選項。

ADVERTISEMENT

ADVERTISEMENT