ADVERTISEMENT
之前有報導,NVIDIA的 GB200 Blackwell AI 伺服器採用了液冷技術,因為據傳與實現冷卻機制相關的必要零件在市場上出現短缺,導致訂單積壓。
不過,NVIDIA該賺的錢也不會放過。據集邦諮詢最新報告,NVIDIA將在今年下半年供貨Blackwell架構的新一代B100、B200 GPU,供應CSP雲端業務客戶,同時增加一款精簡版的B200A,面向有邊緣AI需求的OEM企業客戶。
臨時增加B200A的主要原因是B200所用的台積電CoWoS-L封裝產能持續吃緊,需要集中滿足CSP客戶需求,B200A則會改用相對簡單和寬鬆的CoWoS-S封裝技術。
技術規格上,B200A的詳細情況還不清楚,只能確定HBM3E記憶體的容量從192GB精簡至144GB,數量從八顆減半至四顆,但因為8hi堆疊變12hi堆疊,單顆容量從24GB增加到36GB。
核心規格應該也會刪減,而功耗將會低於B200 1000W,因此無需液冷,風冷即可滿足,方便客戶快速部署。
B200A預計到2025年第二季度左右才會供給OEM廠商,進而和第三季度才放量的H200拉開距離,避免衝突。
供應鏈調查顯示,NVIDIA 2024年高階GPU的出貨主力以Hopper平台為主,針對北美市場是H100、H200,針對中國市場則是H20。
Blackwell系列在今年供應量不會太多(還被曝出設計缺陷),明年才會逐漸成為主力,佔比超過80%。
其中,B100屬於初期的過渡產品,主打「低能耗」,完成既有訂單之後就會被B200、B200A、GB200所取代。
集邦諮詢預計,NVIDIA高階GPU明年的出貨量將增長55%。
請注意!留言要自負法律責任,相關案例層出不窮,請慎重發文!