不論誰贏了 ChatGPT 大戰,NVIDIA都是最後的贏家

不論誰贏了 ChatGPT 大戰,NVIDIA都是最後的贏家

ADVERTISEMENT

近日,NVIDIA公布了 2023 財年及其Q4財報。在加密貨幣低迷、消費需求疲軟、去庫存的種種壓力下,NVIDIA在 2023 財年的總營收基本與上一財年持平,約為 270 億美元。其中,Q4營收為 60.5 億美元,較去年同期下降了 21%。 

儘管如此,其業績表現依然好於分析師此前的預期。財報發布當天,NVIDIA股價大漲 14%,市值達到 5800 億美元。事實上,人們對NVIDIA的樂觀情緒已經蔓延數月。自今年 1 月以來,NVIDIA的市值漲幅最高達 60%。 

這多虧了 OpenAI,其發表的 ChatGPT 和 DALL-E 2 這樣的大型語言模型(Large Language Model)將生成式 AI 引入了公眾的視線——幾乎所有軟體將被 AI 重塑,黃仁勳更是將其比作「AI 的 iPhone 時刻」。 

就此,時代的風口由元宇宙和 web3 突然切換到生成式 AI,FAAMG 等矽谷巨頭們匆忙備戰隨時「開打」。而NVIDIA,穩穩地成為這場時代之戰的「最大軍火商」。 

作為當下「AI 超級週期的跳動心臟」,NVIDIA的 GPU(圖形處理晶片)是訓練和操作機器學習模型的最佳選擇,因而被視為「2023 年雲端資本支出重心轉向人工智慧的最大受益者」。 

其實,這不是NVIDIA第一次乘上時代的風車——加速運算、深度學習、挖礦、元宇宙,NVIDIA屢次踩中時代的風口。在它成立的短短 30 年裡,晶片江湖已然換了人間,當年與 90 家顯示卡商廝殺落敗的初創公司,早已成為市值最高的晶片霸主。 

NVIDIA屢次「躺贏」,離不開其掌舵者黃仁勳的戰略眼光——總是能精準預判下一個技術變革,提前下手。在近日的財報電話會上,黃仁勳透露了:這一次,他提前看到的未來及其相應的戰略布局。面對大語言模型加持的生成式 AI,「核彈廠」的野心遠非提供「軍火」。 

ChatGPT 大戰背後的「戰爭之王」 

去年 11 月底以來,OpenAI 讓人們見識到了「通用智慧」的厲害,依託大語言模型的 ChatGPT 所展現的思維鏈條(Chain of Thought)和自發湧現的各種能力(Emergence)令人驚豔——儘管 ChatGPT 本身沒有知識和智慧,但是它做到了「讓你以為它有知識甚至智慧」的程度。 

不久前,在加州大學柏克萊分校哈斯商學院的爐邊談話上,黃仁勳興奮地評價 ChatGPT 將開啟科技行業的新紀元,也是人工智慧和計算行業有史以來最美妙的事情。

他說:「上一次看到一項如此多才多藝、可以解決問題並經常以多種方式帶給人們驚喜的科技是什麼時候?它可以寫一首詩,可以填寫試算表,可以編寫 SQL 查詢並執行,可以寫 Python 程式碼……對於很多一直致力於此的人來說,我們一直在等待這一刻,這是人工智慧的 iPhone 時刻。我現在可以將它用作 API 並連接到試算表、PPT、各個應用程式,它有讓一切變得更好的潛力」。

不論誰贏了 ChatGPT 大戰,NVIDIA都是最後的贏家

這是「AI 將重塑所有軟體」的際遇,而要讓生成式 AI 能夠像 ChatGPT 這樣展現五花八門的通識才能,必須依託像 GPT3.5 這樣的底層大語言模型。人們將其比作行動網路時代裡Android或 iOS。因此,大語言模型也就成為大廠和創業公司的必爭之地。 

無論是「造」出這樣一個大模型,還是運行這樣一個大模型,都需要極大的算力,需要成千上萬個 GPU。據報導,OpenAI 用了 10000 個NVIDIA的 GPU 來訓練 ChatGPT。花旗集團估計,ChatGPT 的使用可能會在 12 個月內為NVIDIA帶來 30 億至 110 億美元的銷售額。 

此前業內人士表示,「大模型技術涉及 AI 開發、推理、訓練的方方面面,所謂模型的『大』主要是參數量大、運算量大,需要更大體量的資料和更高的算力支撐。對於 GPU 廠商來說,大模型是值得期待的算力紅利,尤其是通用性極強的NVIDIA」。 

全球來看,大算力晶片領域主要有兩個玩家,NVIDIA和 AMD,從市占率來說,NVIDIA遠超 AMD。根據 John Peddie Research 的資料,NVIDIA佔據了 GPU 市場約 86% 的市場佔有率。 

這也就不難理解,在炙手可熱的生成式 AI 浪潮下,NVIDIA被視為最大的潛在贏家。從財報上看,這波生成式 AI 對於NVIDIA的需求主要反映在資料中心業務。事實上,2023 整個財年的四個季度,資料中心已經替代了NVIDIA起家的支柱業務——遊戲,成為第一大業務。

2022 財年第 4 季度——2023 財年第 4 季度,NVIDIA各個板塊的營收 | 截圖來源:Nvidia

2023 財年,資料中心總收入增長了 41%,達到創紀錄的 150.1 億美元。僅就Q4而言,資料中心收入為 36.2 億美元,貢獻了NVIDIA全公司收入的 60% 左右。

資料中心增長的基本盤來自於新一代旗艦產品 H100 的出貨量持續走高、雲端的滲透率持續增長、以及超大規模客戶擴大了 AI 布局。

就 H100 而言,其收入在Q2就已經遠遠高於 A100,後者的營收占有率連續下降。據悉,H100 在訓練方面比 A100 快 9 倍,在基於 Transformer 的大型語言模型推理方面比 A100 快 30 倍。

同時,NVIDIA正在為越來越多的、快速增長的雲端服務商(Cloud Service Providers,簡稱 CSP)提供服務,包括甲骨文和一些專注於 GPU 的雲端服務提供者(GPU specialized CSPs)。在過去的 4 個季度中,CSP 客戶貢獻了資料中心收入的 40% 左右。 

下一步:AI 即服務 

財報電話會上,老黃透露了NVIDIA的新動向——AI企業級服務上雲端。儘管更多資訊會在十幾天後的 GTC 大會上才宣布,但NVIDIA正與領先的雲端服務商合作提供 AI 即服務(AI-as-a-service),讓企業可以造訪NVIDIA的 AI 平台。據官方消息,客戶將能夠把 NVIDIA AI 的每一層(包括 AI 超級電腦、加速庫軟體或預訓練的生成式 AI 模型等)作為雲端服務來使用。 

老黃闡述道,「技術突破的積累使 AI 到了一個反曲點。生成式 AI 的多功能性和能力引發了世界各地企業開發和部署 AI 戰略的緊迫感。然而,AI 超級電腦基礎設施、模型演算法、資料處理和訓練技術仍然是大多數人無法克服的障礙。」

不論誰贏了 ChatGPT 大戰,NVIDIA都是最後的贏家

基於這樣的行業痛點,NVIDIA商業模式的下一個層次是:説明每個企業客戶都能使用AI。 

客戶使用自己的瀏覽器,就可以透過 NVIDIA DGX Cloud 來使用 NVIDIA DGX AI 超級電腦,該服務已經在 Oracle Cloud Infrastructure 上可用,預計不久後也將在 Microsoft Azure、Google Cloud 和其他平台上線。在 AI 平台軟體層,客戶將能夠造訪 NVIDIA AI Enterprise,以訓練和部署大型語言模型或其他 AI 工作負載。而在 AI 模型即服務層,NVIDIA將向希望為其業務建立專有生成式 AI 模型和服務的企業客戶提供 NeMo 和 BioNeMo 可定制 AI 模型。

就其市場前景,黃仁勳認為,ChatGPT 讓人們意識到電腦程式設計的民主化,幾乎任何人都可以用人類語言向機器解釋要執行的特定任務。因此,全世界 AI 基礎設施的數量將會增長,「你會看到這些 AI 工廠無處不在」。人工智慧的生產將會像製造業一樣,在未來,幾乎每個公司都會以智慧的形式生產軟體產品。資料進來了,只做一件事,利用這些資料產生一個新的更新模型。 

他進一步解釋了 AI 工廠,「當原材料進入時,建築或基礎設施就會啟動,然後一些改進的東西就會出現,這是非常有價值的,這就是所謂的工廠。所以我希望在世界各地看到 AI 的工廠。其中一些將託管在雲端中。其中一些將是本地的。會有一些很大,有些會非常大,然後會有一些更小。所以我完全期待這會發生。」 

事實上,老黃關於 AI 工廠願景正在發生,上個月,他在公開演講中聲稱,自從 ChatGPT 出現以來,可能已經有大約 500 家新創業公司開發出令人愉快的、有用的 AI 應用程式。 

基於這一前景,NVIDIA對資料中心的未來充滿信心。CFO Cress 表示,透過新的產品週期、生成式 AI 以及人工智慧在各個行業的持續採用,資料中心部門將持續實現增長。她說:「除了與每個主要的超大規模雲端服務商合作外,我們還與許多消費網路公司、企業和初創企業合作。這一機會意義重大,推動資料中心的強勁增長,並將在今年加速增長。」 

汽車向上,遊戲向下 

除了資料中心,NVIDIA其他的業務板塊——遊戲、汽車、專業視覺等,本季度的表現則有好有壞。 

其中,車用業務表現亮眼。財年總收入增長 60%,達到創紀錄的 9.03 億美元。Q4收入創下 2.94 億美元的紀錄,較去年同期增長 135%,較上一季度增長 17%。 

無論是和上個周期對比還是去年同期對比,車用業務均持續增長。根據NVIDIA,這些增長反映了自動駕駛解決方案的銷售增長,面向電動汽車製造商的計算解決方案以及 AI 座艙解決方案的銷售強勁。電動汽車和傳統 OEM 客戶的新專案助推了這一增長。 

值得注意的是,在今年 1 月初舉行的 CES 大會上,NVIDIA宣布與富士康建立戰略合作夥伴關係,共同開發基於 NVIDIA DRIVE Orin 和 DRIVE Hyperion 的自動駕駛汽車平台。 

相比之下,遊戲業務依然深處泥潭之中。 

過去幾個季度,RTX 4080 銷售疲軟、電玩遊戲行業下滑、加密貨幣市場疲軟、以及去庫存壓力等因素,讓NVIDIA的遊戲業務持續低迷,尤其Q3,遊戲業務營收同期對比暴跌 51%。但就像 CFO Cress 所言,「最低點可能已經過去,而且事情可以改善前進。」 

Q4,NVIDIA遊戲營收為 18.3 億美元,同期對比下降 46%,周期對比增長 16%,整個財年收入下降 27%。該季度和財年的同期對比下降反映了銷售減少,背後是全球宏觀經濟低迷和中國放開疫情管控對遊戲需求的影響。 

但Q3和上期統計周期相比,NVIDIA的遊戲業務還是有一定增長。這是由於受到基於 Ada Lovelace 架構的新 GeForce RTX GPU 的推出推動。黃仁勳也肯定了這一看法,他說:「遊戲業正在從新冠肺炎疫情後的低迷中復甦,而且玩家們熱烈歡迎使用 AI 神經算繪的 Ada 架構 GPU。」 

近日,遊戲行業一個復甦的好跡象是:動視暴雪(Activision Blizzard)在Q4實現了營收正增長,超出了預期。但仍要警惕——動視暴雪在 PC 和主機上銷售遊戲,而只有 PC 銷售與NVIDIA相關,主機製造商使用 AMD 顯示卡。

此外,在財報發布的前一天,NVIDIA宣布與微軟簽訂了一項為期 10 年的協議,將 Xbox PC 遊戲陣容引入 GeForce NOW,包括《我的世界(Minecraft)》、《最後一戰(Halo)》和《微軟模擬飛行(Microsoft Flight Simulator)》。待微軟完成收購動視之後,GeForce NOW 將新增《決勝時刻(Call of Duty)》和《鬥陣特攻(Overwatch)》等遊戲。 

除了遊戲業務之外,專業視覺和 OEM 這兩個部門的業務也較上一年有大幅下降。從中可以看出:半導體市場正在經歷罕見的下行週期。 

專業視覺業務Q4收入為 2.26 億美元,較去年同期下降 65%,較上一季度增長 13%。財年總收入下降 27% 至 15.4 億美元。該季度和財年同期對比下降反映了向合作夥伴銷售較少以幫助減少管道庫存。周期對比增長是由臺式工作站 GPU 推動的。 

OEM 和其他收入同期對比下降 56%,周期對比增長 15%。財年收入下降 61%。該季度和財年同期對比下降是由筆記型電腦 OEM 和加密貨幣挖掘處理器(CMP)推動的。在財年 2023 中,CMP 收入微不足道,而在財年 2022 中為 5.5 億美元。  

風口上的贏家,為什麼又是NVIDIA

NVIDIA 30 年的發展史可以分為兩段。從 1993 年到 2006 年,NVIDIA的目標是在競爭激烈的圖形卡市場中存活下來,並創造了 GPU 這一革命性的技術;從 2006 年到 2023 年的轉型,則主要是如何利用 CUDA 這一平台,將 GPU 應用於機器學習、深度學習、雲端運算等領域。 

後者讓NVIDIA走上人工智慧之旅,今天市值已經超過老牌霸主英特爾和 AMD,也是在今天生成式 AI 熱潮下,NVIDIA再次站上風口的前提。

在 2019 年的一次主題演講中,黃仁勳分享了NVIDIA一次次重溯行業的緣起——找到了真正重要的問題並堅持。他說:「這使我們能夠一次又一次地發明、重塑我們的公司、重溯我們的行業。我們發明了GPU。我們發明了程式著色。是我們讓電子遊戲變得如此美麗。我們發明了 CUDA,它將 GPU 變成了虛擬實境的模擬器。」 

回到NVIDIA的起點。當時 Windows 3.1 剛剛問世,個人電腦革命才剛剛要開始。NVIDIA想要能找到一種方法讓 3D 圖形消費化、民主化,讓大量的人能夠接觸到這項技術,從而創造一個當時不存在的全新行業——電子遊戲。他們認為,如果做成,就有可能成為世界上最重要的技術公司之一。 

原因在於:3D圖形主要表現為對現實的模擬,對世界的模擬相當複雜,如果知道如何創建難辨真假的虛擬實境,在所做的一切中模擬物理定律,並將人工智慧引入其中,這一定是世界上最大的運算挑戰之一。它沿途衍生的技術,可以解決驚人的問題。 

最有代表性的案例,就是透過 CUDA 等方案為運算、人工智慧等帶來了革新性影響,也讓它在這一波生成式AI浪潮中處於最佳生態位。 

儘管 GPU 作為運算設備的發現經常被認為有助於引領圍繞深度學習的「寒武紀大爆炸」,但 GPU 並不是單獨工作的。NVIDIA內外的專家都強調,如果NVIDIA在 2006 年沒有將 CUDA 運算平台添加到組合中,深度學習革命就不會發生。 

CUDA(Compute Unified Device Architecture)運算平台是NVIDIA於 2006 年推出的軟體和中介軟體堆疊,其通用的平行運算架構能夠使得 GPU 解決複雜的運算問題。透過 CUDA,研究人員可以程式設計和存取GPU 實現的運算能力和極致並行性。 

而在NVIDIA發布 CUDA 之前,對 GPU 進行程式設計是一個漫長而艱巨的編碼過程,需要編寫大量的低階機器碼。使用免費的 CUDA,研究人員可以在在NVIDIA的硬體上更快、更便宜地開發他們的深度學習模型。 

CUDA 的發明起源於可程式化 GPU 的想法。NVIDIA認為,為了創造一個美好的世界,第一件要做的事情就是先類比它,而這些物理定律的模擬是個超級電腦負責的問題,是科學運算的問題,因此,關鍵在於:怎麼把一個超級電腦才能解決的問題縮小、並放進一台正常電腦的大小,讓你能先模擬它,然後再產生畫面。這讓NVIDIA走向了可程式化 GPU,這是個無比巨大的賭注。 

彼時,NVIDIA花了三四年時間研發 CUDA,最後卻發現所有產品的成本都不得不上升近一倍,而在當時也並不能給客戶帶來價值,客戶顯然不願意買單。 

若要讓市場接受,NVIDIA只能提高成本,但不提高售價。黃仁勳認為,這是運算架構的事情,必須要讓每一台電腦都能跑才能讓開發者對這種架構有興趣。因此,他繼續堅持,並最終打造出了 CUDA。但在那段時間,NVIDIA的利潤「摧毀性」地下降,股票掉到了 1.5 美元,並持續低迷了大約 5 年,直到橡樹嶺國家實驗室選擇了NVIDIA的 GPU 來建造公用超級電腦。 

接著,全世界的研究人員開始採用 CUDA 這項技術,一項接著一項的應用,一個接著一個的科學領域,從分子動力學、運算物理學、天體物理學、粒子物理學、高能物理學……這些不同的科學領域開始採用 CUDA。兩年前,諾貝爾物理學獎和化學獎得主,也都是因為有 CUDA 的幫助才得以完成自己的研究。 

當然,CUDA 也為NVIDIA的遊戲提供了動力,因為虛擬世界裡和現實世界的流體力學是一樣的,像是粒子物理學的爆炸、建築物的崩塌效果,和NVIDIA在科學運算中觀察到的是一樣的,都是基於同樣的物理法則。 

然而,CUDA 發布後的前六年裡,NVIDIA並未「全力投入」AI,直到 AlexNet 神經網路的出現。 

在即將到來的 GTC 大會上,黃仁勳邀請了 OpenAI 聯創兼首席科學家伊爾亞·蘇茲克維(Ilya Sutskever),而蘇茲克維見證了NVIDIA這段在人工智慧領域崛起的故事。

不論誰贏了 ChatGPT 大戰,NVIDIA都是最後的贏家

蘇茲克維與亞歷克斯·克里澤夫斯基(Alex Krizhevsky)及其博士老師傑佛瑞·辛頓(Geoffrey Hinton) 一起創建了 AlexNet,這是電腦視覺領域開創性的神經網路,在 2012 年 10 月贏得了 ImageNet 競賽。獲獎論文表明該模型實現了前所未有的圖像辨識精度,直接導致了此後十年裡人工智慧的主要成功故事——從 Google Photos、Google Translate 和 Uber 到 Alexa 和 AlphaFold 的一切。 

根據辛頓的說法,如果沒有NVIDIA,AlexNet 就不會出現。得益於數千個運算核心支援的並行處理能力,NVIDIA的 GPU 被證明是運行深度學習演算法的完美選擇。辛頓甚至在一次演講上告訴在場的近千名研究人員都應該購買 GPU,因為 GPU 將成為機器學習的未來。 

在 2016 年接受富比士採訪時,黃仁勳說自己一直都知道NVIDIA圖形晶片的潛力不止於為最新的電玩遊戲提供動力,但他沒想到會轉向深度學習。 

事實上,NVIDIA的深度神經網路 GPU 的成功是「一個奇怪的幸運巧合」,一位名叫 Sara Hooker 的作者在 2020 年發表的文章「硬體彩票」探討了各種硬體工具成功和失敗的原因。 

她說,NVIDIA的成功就像「中了彩票」,這在很大程度上取決於「硬體方面的進展與建模方面的進展之間的正確對齊時刻」。這種變化幾乎是瞬間發生的。「一夜之間,需要 13000 個 CPU 的工作兩個 GPU 就解決了」她說。「這就是它的戲劇性。」 

然而,NVIDIA並不同意這種說法,並表示,從 2000 年代中期開始NVIDIA就意識到 GPU 加速神經網路的潛力,即使他們不知道人工智慧將成為最重要的市場。 

在 AlexNet 誕生的幾年後,NVIDIA的客戶開始購買大量 GPU 用於深度學習,當時,Rob Fergus(現任 DeepMind 研究科學家)甚至告訴NVIDIA應用深度學習研究副總裁 Bryan Catanzaro,「有多少機器學習研究人員花時間為 GPU 編寫核心,這太瘋狂了——你真的應該研究一下」。 

黃仁勳逐漸意識到 AI 是這家公司的未來,NVIDIA隨即將把一切賭注押在 AI 身上。 

於是,在 2014 年的 GTC 主題演講中,人工智慧成為焦點,黃仁勳表示,機器學習是「當今高性能運算領域最激動人心的應用之一」。「其中一個已經取得令人興奮的突破、巨大的突破、神奇的突破的領域是一個叫做深度神經網路的領域。」黃仁勳在會上說道。 

此後,NVIDIA加快布局 AI 技術,再也不只是一家 GPU 計算公司,逐漸建立了一個強大的生態系統,包括晶片、相關硬體以及一整套針對其晶片和系統進行優化的軟體和開發系統。這些最好的硬體和軟體組合平台,可以最有效地生成 AI。 

可以說,GPU + CUDA 改變了 AI 的遊戲規則。中信證券分析師許英博在一檔Podcast節目中評價道:NVIDIA一直在做一件非常聰明的事情,就是軟硬一體。在 GPU 硬體半導體的基礎上,它衍生出來了基於通用運算要用的 CUDA。這促成了NVIDIA拿到了軟體和硬體的雙重規模效應。 

在硬體端,因為它是圖形和運算的統一架構,它的通用性確保了它有規模性,而規模性攤薄了它的研發成本,所以硬體上本身通過規模性可以拿到一個比較優勢的研發成本。 

在軟體端,因為它有龐大的開發者的生態,而這些寶貴的軟體發展人員,即便是這些軟體發展人員換了一個公司,但他可能還是在繼續用 CUDA 的軟體。

geekpark
作者

極客公園(www.geekpark.net)成立於2010年,是中國創新者的大本營。透過對前沿科技的觀察報告,在內容媒體、會展公關、創業服務三大業務協同發展下連結資源,讓優秀的科技新創更快速的成長。

使用 Facebook 留言
發表回應
謹慎發言,尊重彼此。按此展開留言規則