
ADVERTISEMENT
隨著輝達(NVIDIA)近日公布了未來三代AI伺服器的發展藍圖,新一代HBM(High Bandwidth Memory)記憶體的規格也成為業界關注的焦點。HBM記憶體在AI伺服器中扮演著至關重要的角色,其容量、頻率和頻寬的提升,直接影響著AI運算的效能。這場由輝達領跑的AI伺服器記憶體大戰,不僅是技術的競賽,更是市場佔有率的爭奪。
輝達AI伺服器與HBM記憶體發展藍圖:性能至上的追求
輝達的AI伺服器發展規劃中,基於GB300晶片的Blackwell Ultra NVL72將於今年下半年發布,繼續採用HBM3E記憶體。而明年下半年的Vera Rubin NVL144將升級為下一代HBM4記憶體。到了2026年下半年的Rubin Ultra NVL576,則會採用加強版的HBM4E記憶體。預計在2028年,採用全新Feynman架構的產品有望首次搭載HBM5記憶體。
輝達對於HBM記憶體的需求不僅僅是容量的增加,更重要的是頻寬和速度的提升。AI模型越來越複雜,需要處理的數據量也越來越龐大,因此,HBM記憶體的性能直接關係到AI伺服器的整體效能。輝達的發展藍圖清晰地展現了其對性能的極致追求,也給HBM記憶體原廠帶來了巨大的挑戰和機遇。
面對輝達對HBM記憶體的強勁需求,SK海力士、三星和美光三大記憶體原廠也紛紛展示了各自的HBM發展規劃,積極爭奪市場份額。
SK海力士:HBM領頭羊的先發優勢
SK海力士作為HBM記憶體的領先者,率先推出了48GB大容量的HBM4,採用單Die 24Gb(3GB)的設計,16顆堆疊而成。其數據傳輸率高達8Gbps,IO位寬為2048-bit,單顆頻寬達到2TB/s。SK海力士憑藉其在HBM領域的技術積累和先發優勢,有望在未來的市場競爭中保持領先地位。
美光:穩紮穩打,性能穩步提升
美光雖然沒有公布過多的細節,但表示其HBM4記憶體的性能將比HBM3E提升50%,預計在2026年開始量產。美光在記憶體領域擁有深厚的技術實力,其穩紮穩打的策略也使其在市場上佔有一席之地。
三星:規格與藍圖並重,全方位布局
三星展示的HBM4記憶體同樣採用單Die 24Gb的設計,提供36GB(12堆疊)和24GB(8堆疊)兩種容量選擇。其數據傳輸率最高可達9.2Gbps,頻寬最高為2.3TB/s。三星的HBM4採用MPGA封裝,尺寸為12.8x11毫米,堆疊高度為775微米,能效為每bit 2.3PJ。
在下一代HBM4E方面,三星計劃將單Die容量提高到32Gb(4GB),支援8/12/16堆疊,單顆容量最大可達64GB,且高度維持不變。同時,數據傳輸率將提高到10Gbps,搭配2048-bit位寬,頻寬可達2.56TB/s。三星不僅在規格上不斷突破,更在藍圖上進行了全方位的布局,展現了其在HBM市場的雄心壯志。
HBM記憶體的應用前景:AI伺服器獨佔鰲頭
HBM記憶體目前主要應用於AI伺服器,未來預計仍將以AI領域為主。由於成本較高,HBM記憶體短期內不太可能下放到消費級顯示卡市場。然而,隨著AI技術的不斷發展和應用場景的不斷擴展,HBM記憶體的需求也將持續增長。
- 延伸閱讀:NVIDIA Rubin 架構有望提前半年亮相:HBM4 記憶體加持,效能功耗比大躍進
- 延伸閱讀:三星加速 HBM4 開發,計畫 2025 年底量產
- 延伸閱讀:為了HBM4高寬頻記憶體,特斯拉緊盯三星和SK海力士
請注意!留言要自負法律責任,相關案例層出不窮,請慎重發文!