NVIDIA在Supercomputing 2023(SC23)大會發表了使用頻寬更大的HBM3e記憶體的H200 GPU,此外也發表整合4組GH200 Superchip與水冷散熱方案的Quad GH200。
現有產品魔改再進化
H200 GPU以H100為基礎,並將原本80GB的HBM3記憶體升級為141GB的HBM3e,不但將容量提升約1.8倍,也將頻寬由原本的3.35TB/s提升至約為1.4倍的4.8TB/s。根據NVIDIA提供的數據,最高能在特定應用達到2倍效能表現。
NVIDIA也發表整合4組GH200 Superchip與水冷散熱方案的Quad GH200具有16PFLOPS的AI效能,並搭載288組處理器核心與總容量達2.3TB的記憶體(推測為4組480GB LPDDR5X搭配4組96GB HBM3),並將與Eviden、HPE等廠商合作推出伺服器產品。









更多NVIDIA與SC23大會的資訊,可以參考SC23官方網站。
請注意!留言要自負法律責任,相關案例層出不窮,請慎重發文!