ADVERTISEMENT
NVIDIA創辦人兼執行長黃仁勳在GTC 22春季展開幕演說中,發表了次世代採用全新Hopper架構的H100 GPU,並推出、更新眾多軟體與API,為AI運算注入龐大動能。
全新硬體蓄勢待發
在開幕演說中,黃仁勳表示身為加速運算的先驅,NVIDIA將運算堆疊(Computing Stack)分為硬體、系統軟體、平台軟體和應用程式等4個層次,並推出對應的產品。
在最底層的硬體部分,GTC 22最重要的資訊末過於採用全新Hopper架構的H100 GPU,以及它極具彈性的多元組態,H100不但具有較前代A100 GPU更高的運算效能(例如在人工智慧處理方面,H100的FP8資料類型的效能為A100 FP16的6 倍),而且全新的Transformer Engine、DPX指令等軟體層面的功能也能大幅提升執行效率,讓原先需要數週的AI運算工作時間能夠降低至短短幾天,大幅節省企業營運的成本並提升效率。
更多關於Hopper架構與H100 GPU的詳細資訊,請參考《NVIDIA於GTC 2022發表全新Hopper GPU架構,還可與Grace合體變身超級晶片》一文。
NVIDIA也於GTC 22發表了多樣伺服器、網路交換器等硬體產品,其中比較值得關注的重點之一就是專為數位孿生設計的OVX電腦。
傳統資料中心在運作時侵向以最短時間處理資料,而非精確時間,但是對於數位孿生而言,其模擬涉及在同一空間、時間內互動的多套自主系統,因此對應的軟體和電腦需要能夠擴充、低延遲,並支援精確時間,因此有必要建立同步資料中心。
這次發表的第一代NVIDIA OVX Omniverse電腦由8個NVIDIA A40 RTX GPU、3 張 CX6 200 Gbps NIC以及2個Intel Ice Lake中央處理器組成,並搭配NVIDIA Spectrum-3 200 Gbps交換器,能夠連接32台OVX電腦組成OVX SuperPOD。其中最重要的部分為網路與電腦使用精確時間協定 (Precision Timing Protocol) 進行同步,並採用遠端直接記憶體存取(RDMA)盡量減少封包傳輸延遲,以滿足數位孿生應用需求。
▲I am AI展示影片與AI萌娘在GTC 22春季展又經強化,讀者不妨與先前版本比較一下。(完整演說重播請點我)
軟體方面也有提升
黃仁勳也在演說中提到,除了4大層面之外,百萬倍運算加速、Transformer Engine加速人工智慧發展、資料中心成為人工智慧工廠、對機器人系統的需求大幅上升,以及新一代人工智慧的數位孿生等5大動力,也將成為人工智慧發展的趨勢。
NVIDIA也提出許多如Hyperion 9自駕車平台、DRIVE Map、Omniverse Cloud、Clara Holoscan MGX、Jetson AGX Orin等軟體、硬體、服務等多樣產品,筆者將會於於日後陸續更新精選報導。
請注意!留言要自負法律責任,相關案例層出不窮,請慎重發文!