NVIDIA平均每兩年就會推出一代新的 GPU 架構,例如 2020 年發佈的 Ampere,2022 年發佈的 Hopper,2024 年發佈的 Blackwell,無論是 AI 還是遊戲卡都是如此。
不過,由於人工智慧產業的爆火,NVIDIA僅憑其 AI 晶片就能夠在短短一個季度內斬獲 140 億美元的利潤,而且還在進一步加速發展中。
為適應業界需求,NVIDIA CEO 黃仁勳現宣佈該公司從此每年都會設計一代全新的 AI 晶片。「我可以宣佈,在 Blackwell 之後,還將會有另一款晶片問世。我們後續將保持一年一次的更新步調。」
▲ NVIDIA GB200 NVL72
知名分析師郭明錤前幾天還表示,NVIDIA下一代代號為「Rubin」的新架構將在 2025 年發佈,黃仁勳的話似乎印證了這一說法,這意味著我們最快明年就能見到採用 R100 的 AI 晶片產品。
黃仁勳還強調,NVIDIA也將加快其他所有晶片的更新速度,以適應這一節奏。「我們將以非常快的速度推進所有產品線。」「新的 CPU、新的 GPU、新的網路網路卡、新的交換機…… 即將迎來大量晶片新品。」
在財報電話會議上,當被詢問有關最新款 Blackwell GPU 如何在上一代 Hopper GPU 仍暢銷的情況下快速放量的問題時,黃仁勳解釋說,NVIDIA新一代人工智慧 GPU 在電氣和機械方面都可實現向下相容,並且可以運行相同的軟體。他表示,客戶在現有資料中心可以輕鬆地從 H100 升級到 H200,再升級到 B100。
為瞭解釋對NVIDIA人工智慧 GPU 的巨額需求,黃仁勳還在電話會議中分享了一些銷售觀點:「在我們升級到 H200 和 Blackwell 的過程中,預計將迎來一段供不應求的時間。所有人都想要盡快讓他們的基礎設施上線運行,理由是這些產品可以幫助他們更好地節省成本並創造利潤,所以他們都希望儘早實現這一點。」
時間的價值不可估量
黃仁勳在解釋這一決策時強調了時間的價值,他認為在技術快速發展的當下,成為產業領導者至關重要。
他提到,第一個達到技術里程碑的公司能夠宣佈突破性的AI技術,而其他跟隨者可能只能宣佈微小的改進。因此,NVIDIA致力於快速推進所有產品線,包括新的CPU、GPU、網路網路卡和交換機等。
NVIDIA的這一策略也意味著客戶需要適應快速的技術更新,以便在資料中心建設上保持競爭力。
黃仁勳指出,儘管一些客戶可能剛剛投資購買了新一代產品,但他們需要繼續推進建設,並準備迎接即將到來的大量新晶片,因為時間的價值不可估量,建立資料中心的速度和縮短訓練時間至關重要。
此外,黃仁勳還提到了NVIDIA在資料中心領域的全面優勢。NVIDIA不僅建構了整個人工智慧基礎設施,還深入瞭解系統的每一個瓶頸,從而能夠準確預測每一代產品的性能,並幫助客戶從中獲得最大價值。
他還風趣地引用了「錯失良機」 (FOMO) 效應來佐證他的觀點:「下一個率先登頂下一座重要高峰的公司將能夠發佈開創性的 AI 產品,而緊隨其後的公司只能發佈一些性能提升 0.3% 的產品。你是想成為引領人工智慧革命的公司,還是只想帶來一些微小改進的公司呢?」
NVIDIA首席財務長還強調汽車產業將成為其「資料中心領域今年內最大的企業細分市場」,並透露特斯拉已經購買了 35000 枚 H100 GPU 用於訓練其 FSD 系統,同時像 Meta 這樣的「消費者網路公司」也將繼續保持強勁的增長勢頭。
NVIDIA表示,一些客戶已經購買或計畫購買超過 10 萬枚NVIDIA的 H100 GPU – Meta 計畫到年底在其營運系統中部署超過 35 萬枚。
- 延伸閱讀:全新 NVIDIA RTX A400 和 A1000 GPU 增強人工智慧驅動的設計和生產力工作流程
- 延伸閱讀:NVIDIA更新ChatRTX ,可打造個人化 AI 聊天機器人、加入全新 AI 模型及功能
- 延伸閱讀:NVIDIA財報亮眼身價以1挑8,台積電、ASML、英特爾、AMD、高通加起來都打不過
請注意!留言要自負法律責任,相關案例層出不窮,請慎重發文!