CES2025:超越摩爾定律!黃仁勳:三大 AI 拓展定律推動效能狂飆

CES2025:超越摩爾定律!黃仁勳:三大 AI 拓展定律推動效能狂飆

ADVERTISEMENT

Nvidia執行長黃仁勳表示,該公司AI(AI)晶片的效能提升速度,比摩爾定律設定的歷史速度還要快。摩爾定律是數十年來推動運算技術進步的指標。

「我們的系統發展速度遠快於摩爾定律,」黃仁勳週二在接受採訪時表示。前一天晚上,他在拉斯維加斯舉行的消費電子展(CES)上向 10,000 名觀眾發表了主題演講。

摩爾定律由英特爾(Intel)共同創辦人戈登·摩爾(Gordon Moore)於 1965 年提出,預測電腦晶片上的電晶體數量大約每年會增加一倍,這基本上也使這些晶片的效能提高一倍。這個預測大部分都應驗了,並在數十年間創造了效能的快速提升和成本的直線下降。

近年來,摩爾定律的速度已經放緩。然而,黃仁勳聲稱Nvidia的 AI 晶片正以自己的加速步伐前進;該公司表示,其最新的資料中心超級晶片在運行 AI 推論工作負載方面的速度比上一代快 30 倍以上。

「我們可以同時構建架構、晶片、系統、函式庫和演算法,」黃仁勳說。「如果你這樣做,那麼你的發展速度就能超過摩爾定律,因為你可以在整個技術堆疊上進行創新。」

Nvidia執行長提出這個大膽主張之際,正好是許多人正在質疑 AI 的進展是否停滯不前。領先的 AI 實驗室——例如 Google、OpenAI 和 Anthropic——都使用Nvidia的 AI 晶片來訓練和運行他們的 AI 模型,而這些晶片的進步可能會轉化為 AI 模型能力的進一步提升。

這並非黃仁勳首次表示Nvidia正在超越摩爾定律。去年11月,他在一個podcast中曾提到,AI世界正在遵循所謂的「超摩爾定律」(Hyper Moore’s Law)。黃仁勳否認AI進展正在放緩,並指出現在有三個活躍的AI拓展定律:預訓練(pre-training),即AI模型從大量數據中學習模式的初始訓練階段;後訓練(post-training),利用如人類回饋等方法來微調AI模型的答案;以及推論運算(test-time compute),即在推論階段給AI模型更多的「思考」時間來回答問題。

「摩爾定律在運算歷史上如此重要,是因為它降低了運算成本,」黃仁勳說。「同樣的事情也將發生在推論領域上,我們會提高效能,因此推論的成本將會降低。」

(當然,Nvidia是乘著 AI 熱潮發展成為地球上最有價值的公司,所以黃仁勳這樣說對他有利。)

黃仁勳認為 AI 世界正以「超摩爾定律」的速度發展。

Nvidia的 H100 是科技公司訓練 AI 模型的首選晶片,但現在科技公司更加關注推論,一些人質疑Nvidia昂貴的晶片是否還能保持領先地位。

使用測試時間運算的 AI 模型目前的運行成本很高。有人擔心,OpenAI 的 o3 模型使用了測試時間運算的放大版本,對大多數人來說使用成本過高。例如,OpenAI 使用 o3 在通用智慧測試中達到人類水準的分數,每項任務花費近 20 美元。而 ChatGPT Plus 的訂閱費用為每月 20 美元,可使用一整個月。

黃仁勳在週一的主題演講中,像盾牌一樣高舉著Nvidia最新的資料中心超級晶片 GB200 NVL72。這款晶片在運行 AI 推論工作負載方面的速度比Nvidia之前最暢銷的晶片 H100 快 30 到 40 倍。黃仁勳表示,這種效能的飛躍意味著像 OpenAI 的 o3 這樣在推論階段使用大量運算的 AI 推理模型,隨著時間的推移將會變得更便宜。

Nvidia執行長黃仁勳將 GB200 NVL72 拿在手上當作盾牌。圖片來源:Nvidia

黃仁勳表示,他總體上專注於創造更高效能的晶片,而從長遠來看,更高效能的晶片會帶來更低的價格。

黃仁勳表示,他的重點是開發更高性能的晶片,而更高性能的晶片從長遠來看能降低價格。「對於推論計算的直接且即時的解決方案,無論是在性能還是成本可負擔性上,都是提升我們的計算能力,」黃仁勳說。他指出,從長遠來看,AI推理模型還可以用來創建更好的數據,以供AI模型的預訓練和後訓練使用。

過去一年來,我們確實看到AI模型的價格大幅下降,部分原因來自像Nvidia這樣的硬體公司的計算突破。黃仁勳表示,他預期這一趨勢會在AI推理模型上繼續下去,儘管目前我們從OpenAI看到的第一版模型相當昂貴。

更廣泛地說,黃仁勳聲稱,如今Nvidia的AI晶片比10年前的性能提升了1,000倍。這是一個比摩爾定律所設定標準快得多的步伐,黃仁勳表示,他看不到這一趨勢會很快停止。 

netizen
作者

一個老派的科技媒體工作者,對於最新科技動態、最新科技訊息的觀察報告。

使用 Facebook 留言
發表回應
謹慎發言,尊重彼此。按此展開留言規則