NVIDIA B200A :144GB HBM3E記憶體、功耗低於2000W可用空冷,解決液冷元件不足問題

NVIDIA B200A :144GB HBM3E記憶體、功耗低於2000W可用空冷,解決液冷元件不足問題

ADVERTISEMENT

之前有報導,NVIDIA的 GB200 Blackwell AI 伺服器採用了液冷技術,因為據傳與實現冷卻機制相關的必要零件在市場上出現短缺,導致訂單積壓。

不過,NVIDIA該賺的錢也不會放過。據集邦諮詢最新報告,NVIDIA將在今年下半年供貨Blackwell架構的新一代B100、B200 GPU,供應CSP雲端業務客戶,同時增加一款精簡版的B200A,面向有邊緣AI需求的OEM企業客戶。

臨時增加B200A的主要原因是B200所用的台積電CoWoS-L封裝產能持續吃緊,需要集中滿足CSP客戶需求,B200A則會改用相對簡單和寬鬆的CoWoS-S封裝技術。

技術規格上,B200A的詳細情況還不清楚,只能確定HBM3E記憶體的容量從192GB精簡至144GB,數量從八顆減半至四顆,但因為8hi堆疊變12hi堆疊,單顆容量從24GB增加到36GB。

核心規格應該也會刪減,而功耗將會低於B200 1000W,因此無需液冷,風冷即可滿足,方便客戶快速部署。

B200A預計到2025年第二季度左右才會供給OEM廠商,進而和第三季度才放量的H200拉開距離,避免衝突。

NVIDIA B200A :144GB HBM3E記憶體、功耗低於2000W可用空冷,解決液冷元件不足問題

供應鏈調查顯示,NVIDIA 2024年高階GPU的出貨主力以Hopper平台為主,針對北美市場是H100、H200,針對中國市場則是H20。

Blackwell系列在今年供應量不會太多(還被曝出設計缺陷),明年才會逐漸成為主力,佔比超過80%。

其中,B100屬於初期的過渡產品,主打「低能耗」,完成既有訂單之後就會被B200、B200A、GB200所取代。

集邦諮詢預計,NVIDIA高階GPU明年的出貨量將增長55%。

 

KKJ
作者

快科技成立於1998年,是驅動之家旗下科技媒體業務,中國極具影響力的泛科技領域媒體平台之一。

使用 Facebook 留言
發表回應
謹慎發言,尊重彼此。按此展開留言規則