AI伺服器HBM4記憶體大戰:輝達領跑,SK海力士、三星、美光競逐HBM市場

AI伺服器HBM4記憶體大戰:輝達領跑,SK海力士、三星、美光競逐HBM市場

ADVERTISEMENT

隨著輝達(NVIDIA)近日公布了未來三代AI伺服器的發展藍圖,新一代HBM(High Bandwidth Memory)記憶體的規格也成為業界關注的焦點。HBM記憶體在AI伺服器中扮演著至關重要的角色,其容量、頻率和頻寬的提升,直接影響著AI運算的效能。這場由輝達領跑的AI伺服器記憶體大戰,不僅是技術的競賽,更是市場佔有率的爭奪。

輝達AI伺服器與HBM記憶體發展藍圖:性能至上的追求

輝達的AI伺服器發展規劃中,基於GB300晶片的Blackwell Ultra NVL72將於今年下半年發布,繼續採用HBM3E記憶體。而明年下半年的Vera Rubin NVL144將升級為下一代HBM4記憶體。到了2026年下半年的Rubin Ultra NVL576,則會採用加強版的HBM4E記憶體。預計在2028年,採用全新Feynman架構的產品有望首次搭載HBM5記憶體。

輝達對於HBM記憶體的需求不僅僅是容量的增加,更重要的是頻寬和速度的提升。AI模型越來越複雜,需要處理的數據量也越來越龐大,因此,HBM記憶體的性能直接關係到AI伺服器的整體效能。輝達的發展藍圖清晰地展現了其對性能的極致追求,也給HBM記憶體原廠帶來了巨大的挑戰和機遇。

面對輝達對HBM記憶體的強勁需求,SK海力士、三星和美光三大記憶體原廠也紛紛展示了各自的HBM發展規劃,積極爭奪市場份額。

SK海力士:HBM領頭羊的先發優勢

SK海力士作為HBM記憶體的領先者,率先推出了48GB大容量的HBM4,採用單Die 24Gb(3GB)的設計,16顆堆疊而成。其數據傳輸率高達8Gbps,IO位寬為2048-bit,單顆頻寬達到2TB/s。SK海力士憑藉其在HBM領域的技術積累和先發優勢,有望在未來的市場競爭中保持領先地位。

美光:穩紮穩打,性能穩步提升

美光雖然沒有公布過多的細節,但表示其HBM4記憶體的性能將比HBM3E提升50%,預計在2026年開始量產。美光在記憶體領域擁有深厚的技術實力,其穩紮穩打的策略也使其在市場上佔有一席之地。

三星:規格與藍圖並重,全方位布局

三星展示的HBM4記憶體同樣採用單Die 24Gb的設計,提供36GB(12堆疊)和24GB(8堆疊)兩種容量選擇。其數據傳輸率最高可達9.2Gbps,頻寬最高為2.3TB/s。三星的HBM4採用MPGA封裝,尺寸為12.8x11毫米,堆疊高度為775微米,能效為每bit 2.3PJ。

AI伺服器HBM4記憶體大戰:輝達領跑,SK海力士、三星、美光競逐HBM市場

在下一代HBM4E方面,三星計劃將單Die容量提高到32Gb(4GB),支援8/12/16堆疊,單顆容量最大可達64GB,且高度維持不變。同時,數據傳輸率將提高到10Gbps,搭配2048-bit位寬,頻寬可達2.56TB/s。三星不僅在規格上不斷突破,更在藍圖上進行了全方位的布局,展現了其在HBM市場的雄心壯志。

HBM記憶體的應用前景:AI伺服器獨佔鰲頭

HBM記憶體目前主要應用於AI伺服器,未來預計仍將以AI領域為主。由於成本較高,HBM記憶體短期內不太可能下放到消費級顯示卡市場。然而,隨著AI技術的不斷發展和應用場景的不斷擴展,HBM記憶體的需求也將持續增長。

 

 

 

cnBeta
作者

cnBeta.COM(被網友簡稱為CB、cβ),官方自我定位「中文業界資訊站」,是一個提供IT相關新聞資訊、技術文章和評論的中文網站。其主要特色為遊客的匿名評論及線上互動,形成獨特的社群文化。

使用 Facebook 留言
發表回應
謹慎發言,尊重彼此。按此展開留言規則