ADVERTISEMENT
在美國資料平台Snowflake的開發者大會上,NVIDIA創始人黃仁勳就「如何把生成式AI帶給企業使用者」展開了探討,分享了自己的看法。
黃仁勳表示,我們現在正經歷60年來第一次根本性的運算平台變革。如果你明年再買一大堆CPU,你的運算吞吐量並不會增加。
在黃仁勳看來,像中央處理單元、IO子系統、DMA控制器、虛擬記憶體、多工等等概念,都是1964年開始建立的東西。這些概念在過去60年來,幫助使用者不斷以CPU為中心進行擴充,但現在已經走到了盡頭。
黃仁勳強調,運算已經從根本上改變,你不能再不斷地購買CPU。
他表示,NVIDIA GPU雖然貴,但直接用模型相當於馬上省下95%的成本。「如果你去任何一個雲端,你會看到在他們的成本中NVIDIA GPU是其中最昂貴的實體。但你會發現我們做得非常快,就好像你得到了一個95%的折扣。」
先前在NVIDIA發表Q2財季中主要的增長,就來自資料中心GPU的爆發,各大科技公司都在爭相部署AI,A100、H100等高階AI加速卡即便是加價也有人在搶。
當時黃仁勳就已經放言電腦時代已經變了,資料中心需要用得CPU越來越少,不再是傳統上購買數百萬個CPU,而是轉而購買數百萬個GPU。
黃仁勳預測資料中心GPU的需求可能會是一個兆級美元的超級市場,而NVIDIA有機會乘風飛揚,迎接更大的增長。
- 延伸閱讀:NVIDIA黃仁勳為什麼說CPU 已落伍?實例證明 GPU 訓練大型語言模型成本可降低 96%
- 延伸閱讀:黃仁勳秀出NVIDIA「超級GPU」超級晶片開始量產,表示AI伺服器買越多省越多
- 延伸閱讀:「1兆男」NVIDIA黃仁勳:電腦核心變了,CPU不再是主角、GPU才是關鍵
請注意!留言要自負法律責任,相關案例層出不窮,請慎重發文!