ADVERTISEMENT
輝達(Nvidia)是 AI 基礎設施的霸主——至少在資料中心領域是如此。但在新興的 AI 電腦領域,情況就沒那麼明朗了。
2024 年初,人們逐漸看清,不論好壞,未來的 Windows 將充滿 AI 增強功能與體驗。主要特色包括即時字幕與翻譯、MS Paint 中的圖像生成,以及最終推出的具有爭議的「回憶」(Recall)功能,該功能會定期截取螢幕截圖,並用於記錄過去的活動。
目前,這些新功能僅限於所謂的 Copilot+ 個人電腦,但要成為 Copilot+,電腦必須符合微軟的最低效能標準。
根據微軟的文件,Copilot+ 個人電腦需要具備每秒執行 40 兆次或更多 INT8 AI 運算的神經處理單元(NPU),以及至少 16GB 記憶體與 256GB 儲存空間。在這些標準推出時,只有高通(Qualcomm)擁有符合微軟 NPU 要求的處理器,因此僅配備該處理器的個人電腦被允許作為 Copilot+ 運行上述 AI 增強功能。
從那時起,高通符合條件的 Arm 相容 X 系列晶片,以及Intel(Intel)的 Lunar Lake 和AMD(AMD)的 Strix Point 和 Halo 處理器系列,都加入了 Copilot+ 電腦的行列。
然而,即使是 2025 年 1 月在 CES 上宣佈的價值 2,000 美元的 NVIDIA RTX 5090(具備超過 3.3 百萬億次 AI 運算能力,使用 FP4 格式),仍然無法滿足微軟的要求。無論 GPU 可以提供多少 FLOPS 或 TOPS,對微軟來說,目前重要的是這些運算必須由 NPU 完成。
NVIDIA 在 AI 個人電腦領域未曾懈怠
AI 個人電腦的市場宣傳很大程度上圍繞微軟的 Copilot+ 規範展開,這也不足為奇。畢竟,幾乎每台電腦都運行 Windows。這使得微軟對 NPU 的執著變得無法忽視,但這並不意味著 NVIDIA 安於現狀,只關注資料中心、工作站圖形與獨立遊戲 GPU 市場。
事實上,NVIDIA 多年來一直致力於將 AI 功能引入個人電腦。NVIDIA Windows AI 部門產品行銷負責人傑西·克萊頓(Jesse Clayton)表示:「早在 2018 年,我們推出第一代 GeForce GPU 與內建專用 AI 硬體(張量核心)的 NVIDIA GPU 時,就已開始推動個人電腦上的 AI 發展。」
克萊頓說「除此之外,我們還發布了第一個廣泛部署的個人電腦 AI,即 DLSS,它在遊戲中透過使用 AI 生成像素來提高影格率,現在則為遊戲生成影格。」
從那以後,這家 GPU 巨頭推出了 RTX AI 工具套件(一套用於在 Windows 電腦上優化和部署生成式 AI 模型的工具和軟體),將NVIDIA推理微服務(NIM)引入個人電腦,並推出了一些藍圖,例如最先進的影像生成,以及將 PDF 轉換為 Podcast。
「我們的策略是,無論是遊戲玩家,還是創作者,我們都能提供有趣和差異化的體驗,因為它可以增強你的遊戲體驗,或者節省你的時間並減少重複、繁瑣的工作,」克萊頓解釋說。
雖然其中一些功能直接面向終端使用者(如 ChatRTX 與 RTX Voice),但 NVIDIA 最近推出的許多軟體主要針對開發者社群。
競爭還是機遇
撇開 Copilot+ 的實際價值不談,微軟已成功迫使晶片設計商提供某種形式的 NPU 來滿足其需求,同時也設定了機器學習效能的新最低標準。
考慮到 Windows 的市場佔有率,以及微軟持續將 AI 融入其軟體每個角落的努力,NPU 遲早會普及到最基本的預算型電腦中。
更重要的是,微軟 DirectML 和 ONNX Runtime 等框架的採用,有助於簡化應用程式開發,並允許程式碼在各種硬體上運行,只需最少的重新編寫。
這對 NVIDIA 來說可能構成潛在威脅。這家矽谷巨頭雖然在獨立顯示處理器市場佔據主導地位,並擁有 CUDA 的護城河,但其 GPU 僅出現在大約 18% 的個人電腦中,大多數系統仍使用 Intel、AMD 或其他廠商的整合顯示卡。
可以認為,不久之後,NPU 將成為開發 AI 應用程式的一個更大的目標。而雖然 NVIDIA 不一定會因此被排除在外,因為其加速器同樣支援許多熱門軟體框架,但其部分競爭優勢仍然依賴於說服開發者使用其程式庫與微服務,這些工具承諾更易於整合、更高效能與效率。
克萊頓說,最終,開發者將不得不決定是使用 NIM 之類的東西快速將其應用程式推向市場,還是要支援盡可能大的安裝基礎。
不過,即便未來 NPU 可能對 NVIDIA 構成競爭,AI 個人電腦仍然是相對小眾的市場,這並不完全是壞消息。即使模型未在 NVIDIA 的個人電腦硬體上運行,也極有可能是在其 GPU 上完成的訓練。
即便如此,克萊頓還是提出了一個觀點,即 NPU 並不適用於所有工作負載。40 TOPS 是相當可觀的運算能力,但正如我們前面提到的,與高效能圖形晶片的效能相比,它就相形見絀了。
「NPU 將是用於運行輕量級 AI 工作負載的地方,而且它們將非常節能,」他說。「GPU 是你運行要求更高的 AI 使用案例的地方,這也是我們努力的方向。」
「對於那些根本不適合放在個人電腦上的東西,你可以在雲端 GPU 上運行它們,在那裡你擁有幾乎無限的效能,」克萊頓補充說。
GPU 或許也能實現 Copilot+
已經有一些證據表明,微軟可能會將一些 Copilot+ 功能擴展到 GPU,以便在未來支援更具運算挑戰性的工作負載。
微軟沒有回應關於其利用 GPU 計劃的問題。然而,在 6 月份的一份聲明中,NVIDIA表示正在與微軟合作,透過 Windows Copilot Runtime 為小型語言模型(SLM)新增 GPU 加速。
這項技術原定於 2024 年底推出,但微軟在 12 月 5 日最後更新的文件中未提及 GPU,並特別指出其尚未推出的 Phi Silica 項目對 SLM 的要求是 NPU。
克萊頓拒絕提供有關此次合作的任何最新消息,他說「最終,由微軟決定在哪裡運行哪些工作負載。」
微軟是否以及何時選擇採用 GPU 進行本地 AI 運算,最終可能取決於硬體的可用性。截至撰寫本文時,配備獨立圖形的 NPU Copilot+ 電腦數量相當少。
在桌上型電腦上,情況更加棘手。搭載 NPU 的桌上型電腦晶片確實存在,但據我們所知,沒有一款晶片能滿足微軟 40 TOPS 的效能要求。我們預計,用不了多久,更強大的 NPU 就會進入桌上型電腦晶片。Intel或AMD只需找到一種方法,將其行動晶片中的 NPU 塞進桌上型電腦的外形尺寸即可。
請注意!留言要自負法律責任,相關案例層出不窮,請慎重發文!