ADVERTISEMENT
NVIDIA創辦人暨執行長黃仁勳在Computex 2024台北國際電腦展前於台大綜合體育館進行主題演說,不但透過數學課開示The more you buy, the more you save的真諦,也揭露下代產品路線規劃。
原來這就是CEO數學
NVIDIA創辦人暨執行長黃仁勳在2024年6月2日晚間進行主題演說,開場時他便提到全球各地許多AI基礎建設都是由眾多來自台灣的合作夥伴與NVIDIA共同打造,強調台灣在AI產業、供應鏈所扮演的重要角色。
黃仁勳接著透過簡單的「CEO數學」,說明GPU(繪圖處理器)能透過平行化運作的特性,加速特定運算負載類型的執行速度,達到百倍於CPU(處理器)的效能表現。
雖然GPU伺服器的耗電量比CPU伺服器高出3倍,而成本高出1.5倍,但是完成工作的速度可以達到100倍。整體而言能夠達到30倍電力效率(完成相同工作只需要1/30電力),以及達到60倍成本效率(完成相同工作只需要1/60成本)。
然而黃仁勳笑著說這個CEO數學的問題就是數字不太精準,不過概念保證是正確的,因此得到的結論就是他的名言:「The more you buy, the more you save」(買越多,省越多),指出企業採購當下雖然需要支付較高的費用,但長期使用下來的TCO(Total Cost of Ownership,總體擁有成本)會比較低。
隨後他也提到許多NVIDIA已推出、透過CUDA運算架構加速的函數庫,例如我們先前曾經介紹過,與TSMC(台積電)合作開發cuLitho運算式微影(Computational Lithography)加速函數庫,以及Aerial RAN無線通訊、cuQuantum量子電腦模擬等加速函數庫,為GPU加速運算開拓更寬廣的市場。
在個人電腦應用部分,不同於多數透過內建顯示晶片或NPU驅動的AIPC僅具有100 TOPS左右甚至50 TOPS以下的AI運算效能,搭載NVIDIA顯示晶片的筆記型電腦可以提供高達700 TOPS的效能,有助於帶來更多元的應用,例如NVIDIA先前推出的ChatRTX即為在AIPC上輕鬆使用架設與ChatGPT功能相近的大型語言模型的工具軟體。
黃仁勳認為現在AI產業發展已經進入良性循環階段,有充足的開發者與應用程式,如此一來變能吸引許多使用者,這些使用者又會成為更多廠商投入研發的誘因,推動產業往前邁進。
下代產品現蹤
黃仁勳先前已於GTC 24大會上發表了NVIDIA Inference Microservice(NVIDIA AI推論微服務,以下簡稱NIM),這次他也再次強調NIM的優勢,以及可以串接多種不同微服務以提供更全面、強悍功能的使用情境。
至於企業端運算平台部分,黃仁勳除了拿出量產版本GB200 Superchip之外,也再次將GB200 NVL72伺服器搬上舞台,而黃仁勳也親自搬出伺服器內負責連接所有運算節點進行資料傳輸的NV Link Spine。更多關於GB200系列產品的詳細解說請參考先前GTC 24的相關報導《Blackwell架構詳解》。
黃仁勳在演說最後的段落,也「邀請」眾多機器人上台,並說明透過GR00T計劃推動人型機器人發展,並藉由Isaac開發環境簡化開發工作,也能透過Omniverse的數位攣生以在虛擬環保內進行低成本、大規模的AI模型訓練。相關介紹請參考《GR00T計劃》一文。
黃仁勳在演說中透露了未來產品會採用接近Tic-Toc戰略模式的型態,在2年1輪的週期中分別推出新款運算平台,以及強化版本。
例如2024年將推出Blackwell GPU,而到了2025年則預計推出加強版的Blackwell Ultra GPU。至於2026年則是全新的Rubin GPU與Vera CPU,以及NVLink 6 Switch交換器晶片、CX9 Super NIC網路晶片、X1600網路交換晶片等產品,並在2027年推出加強版的Rubin Ultra GPU。
▲演說的重播影片。黃仁勳也於尾聲(1:58:12處)透過預錄影片感謝台灣合作夥伴為AI產業革新的後盾。
在演說的結尾,黃仁勳也特別以預錄影片的方式,大力贊揚台灣合作夥伴在AI產業所扮演的重要角色,充份展現挺台灣的決心。讀者可於YouTube觀賞演說全場重播。
請注意!留言要自負法律責任,相關案例層出不窮,請慎重發文!