AI模型的訓練需要龐大資金,為了節省成本、支援OpenAI的需求,傳出微軟正在祕密開發自研AI晶片「Athena」(雅典娜),目前部分微軟及OpenAI的員工已經開始測試這些晶片,在GPT-4等大型語言模型下表現如何。
根據《路透社》報導,微軟從2019年就開始投入這款晶片的研發。這個時間點恰好是OpneAI成立營利公司,同意接受微軟10億美元投資,雙方正式建立合作關係的開始。
這些晶片預計將用於大型語言模型的訓練及推理,ChatGPT等語言模型需要龐大的運算力處理資料、模式識別、生成內容並且模仿人類的語氣說話。
OpenAI執行長山姆.奧特曼(Sam Altman)曾在推特上表示,AI的運算成本非常高昂,所以他們必須想辦法將AI技術變現。也因此,微軟目標是打造一款比從供應商處購買的晶片,性能更優異的自研晶片,好節省AI龐大的訓練及使用成本,同時在競爭中加快訓練速度。
AI商業化成本高昂,微軟想自研晶片降低成本
輝達(Nvidia)執行長黃仁勳在今年3月登場的GTC大會上,強調AI的「iPhone時刻」已經到來,將成為AI發展的轉捩點。《財星》雜誌也曾評論,iPhone以前就有智慧型手機,但iPhone出現後才有智慧型手機的應用程式,現在AI就即將迎接同樣的關鍵時刻。
目前Nvidia是最主要的AI晶片供應商,其A100晶片擁有資料中心GPU超過90%的市場,在AI浪潮掀起時,不少評論都指出,Nvidia會是這場競爭中的隱形冠軍。據估計,OpenAI若要將ChatGPT商業化,會需要多達3萬個A100晶片。
而一個A100晶片價格約為1萬美元,毫無疑問是商業化的極大門檻,雖然Nvidia最新的H100晶片號稱訓練性能是A100的9倍,但目前網路上的售價已經超過4萬美元(約新台幣122萬元),仍然要價不菲。
SemiAnalysis首席分析師迪倫.帕特爾(Dylan Patel)指出,要是微軟使用現成的產品部署,每年必須花費數百億美元。他估計ChatGPT的營運成本約為每天70萬美元或每次查詢0.36美元; 假如微軟自研AI晶片成本有競爭力的話,可以將每個晶片的成本降低3分之1 。
《The Verge》指出,微軟自研的晶片並不是要直接取代Nvidia的產品,但隨著他們將AI導入旗下各種服務時,最終這些投入自研晶片的努力能夠降低所需成本。另外,先前微軟也一直祕密開發自研處理器晶片,可能用於資料中心或Surface裝置,不過至今還未對外發表。
AI「持久戰」下,Google、亞馬遜也投入晶片開發
且宣布進軍AI的科技巨頭們,也都投入了自研AI晶片的開發。Google早在2016年就推出為AI而生的TPU晶片,前陣子Google也宣稱他們已藉由第四代TPU晶片打造了一台用於訓練AI的超級電腦,聲稱該晶片在性能勝過A100 1.2到1.7倍的同時,還大幅減少了耗電量。而身為最大雲端業者的亞馬遜,同樣早早投入AI晶片研發,去年11月其研發的新款AI晶片Trainium也在AWS提供服務。
成本一直被認為是AI技術普及的重大門檻,對於利用ChatGPT出奇制勝,成功領先競爭對手的微軟,自然希望乘勝追擊,利用與OpenAI的夥伴關係吃下更多原先屬於Google的瀏覽器、搜尋引擎市場,而降低成本便是達成這目標的核心基礎。
資料來源:Reuters、The Verge、Silicon Angle
本文轉載:數位時代
請注意!留言要自負法律責任,相關案例層出不窮,請慎重發文!