GPU(繪圖處理器)是AI時代下最被看好的應用,然而並非所有的場景都需要用到GPU。在價格、成本和效能的考量下,各行各業中較簡易的AI運用,CPU(中央處理器)仍扮演一定角色。英特爾(Intel)業務暨行銷事業群商用業務總監鄭智成認為:「這會是CPU很好瞄準的市場。」
GPU和CPU最大的不同之處在於,兩者處理計算的方式不同。可以想像,GPU內的資料處理,是同時並進運行;CPU的處理方式則是按照順序進行,兩者之間沒有優劣之分,而是當初開發的目的不同,所產生的最終結果。
正因為如此,GPU能同時處理AI視覺、影像等資訊,同時處理多種資料,讓AI模型建制的進程更快速。不過,這並不代表CPU在AI的應用領域上,就沒有發揮的空間。
策略一:靠「實用」迎戰,瞄準CP值
今年一月,英特爾推出針對高速運算(HPC)、AI等應用的第四代伺服器CPU 「Xeon」。當時Moor Insights & Strategy分析師Matt Kimball就在《Forbes》上評論表示,英特爾已經找到未來的佈局方向。依當前情況來看,有兩大重點。
首先,以近期當紅的Chat GPT來說,知名半導體部落格Semi Analysis分析師Dylan Patel估算,OpenAI 需要约28,936個GPU來為 Chat GPT 提供服務,估計每次查詢的成本為 0.36 美元,價格高昂。「但真實的企業,不會用到像Chat GPT那麼多顆的CPU,」鄭智成表示,Xeon瞄準的是為企業所用、但不需用到強大算力的資料中心。
他進一步解釋,對不少企業來說,接下來的AI應用會以特定領域的垂直應用為主,而非大量的演算法。舉例來說,以聊天機器人而言,部分企業需求僅停留在能夠回答顧客問題,並兼具資訊安全功能即可,在這樣的情況下,Xeon無論是在省電、成本和表現上,將會是較適合的選擇。
Kimball也分析,處理器是否能有效率的負載龐大的工作量,同時兼具安全性,是IT工程師最在乎的,「主打高端產品會讓人覺得印象深刻,但實際效能就不一定。」換句話說,企業往後要使用的,不見得要是最頂尖的處理器,但必須是符合當下情況最好用的。
這也能看出,英特爾在未來AI處理器的佈局上,選擇了不同的戰場,加強對中、小企業的佈局,與輝達這樣的GPU大廠,做出差異選擇。
策略2:CPU也可以訓練AI模型!英特爾想什麼?
其次,則是Xeon這顆CPU,開始具備了訓練AI模型的功能。
實際上,過去前三代的Xeon僅僅具備推論(inference)的功能,也就是運用已經訓練好的AI模型進行運算,並產生最終答案的過程,當中並不牽涉到初期餵入大量資料,進行模型建制的過程。
然而到了第四代的Xeon,開始具備模型訓練的功能。鄭智成表示,不是所有的AI模型生成都如此龐大,諸如CRM(客戶關係管理)、數據庫運行等基本運用,或許只需要一天、甚至半天的訓練時間,「更適合用CPU來處理就好。」
這意味著,諸如基因定序模型、氣象模擬等大型應用之外,CPU能在其中處理中、小型的模型訓練運算,預期可拓展英特爾在AI應用方面的市場,「不是説所有工作都要轉移到CPU,若資料量很大,企業也會採用ASIC(客製化晶片)、GPU等,目的不同。」
「CPU + AI」,能成英特爾勝利方程式?
目前,採用Xeon做AI的案例不少,如西門子(Siemens)便採用該產品做影像辨識。另外,諸如AWS、Cisco(思科)、Dell(戴爾)、Google等,都是英特爾的Xeon客戶;而包含英業達、華碩、緯創、仁寶、和碩、宏碁和廣達等台灣企業,也都已經採用。
除此之外,英特爾也已推出單一平台,讓更多的AI開發者能夠有足夠工具來開發,實現AI民主化。並會持續融合AI功能於CPU當中,「我們是全世界唯一可以做到這點的製造商。」鄭智成說。
而對於將來Xeon的代工策略,鄭智成則表示,第五代的Xeon將持續採用Intel7,預計在2024年,新一代的Xeon處理器Granite Rapids 和 Sierra Forest,才會採用Intel3製程。
本文轉載:數位時代
- 延伸閱讀:【Computex 2023】Intel Meteor Lake內建VPU視覺處理器:Web Cam特效、Stable Diffusion算圖都能加速
- 延伸閱讀:Intel分享資料中心與AI發展方向,著重多樣運算單元與友善軟體
請注意!留言要自負法律責任,相關案例層出不窮,請慎重發文!