AMD發佈了最新開發的人工智慧晶片 Instinct MI300X之後,Meta、OpenAI 和微軟在 AMD 活動上表示,他們都將購入這款晶片。這表明雖然NVIDIA的 GPU 晶片對於開發和部署 ChatGPT 等人工智慧程式至關重要,但很多科技公司都在尋找替代品。
如果 AMD 最新的高階晶片 Instinct MI300X 能在明年初開始出貨,並滿足人工智慧公司和相關雲服務提供商的需求,那麼可能會降低開發人工智慧模型的成本,並對NVIDIA不斷飆升的人工智慧晶片業務形成競爭壓力。
週三 AMD 首席執行長蘇姿丰表示:「所有的關注點都集中在雲端運算所用的大型處理器和大型 GPU 上。」
AMD 表示,MI300X 基於一種能顯著提升性能的新架構。這款晶片的最大特點是擁有 192GB 的高性能 HBM3 記憶體,傳輸資料速度更快,可以適配規模更大的人工智慧模型。
蘇姿丰直接將 MI300X 及其建構的系統與NVIDIA推出的主流人工智慧 GPU 晶片 H100 進行了一番比較。
「這種性能可以直接轉化為更好的使用者體驗,」蘇姿丰說。「當你向模型提出問題時,總希望它能更快回覆,尤其是在回應日益複雜的情況下。」
如何讓客戶從NVIDIA「跳槽」到AMD
AMD 面臨的主要問題是,過去一直以NVIDIA為基礎在發展AI技術的公司,是否會在另一家 GPU 供應商身上再投入時間和金錢。
AMD 表示,公司已經對 ROCm 軟體套件進行了改進。為與作為行業標竿的NVIDIA CUDA 軟體競爭,解決了一個關鍵缺陷。ROCm 軟體套件原來的這個缺陷一直是人工智慧開發者目前更喜歡NVIDIA的主要原因之一。
晶片價格也很重要。AMD 並沒有透露 MI300X 的定價。目前NVIDIA GPU 晶片每塊售價約為 4 萬美元,蘇姿丰表示,AMD 的晶片價格必須比NVIDIA更低,營運成本也更低,才能說服客戶購買。
週三 AMD 還表示,已經與一些最需要 GPU 晶片的公司簽訂了使用協議。根據市場研究公司 Omidia 最近的一份報告,Meta 和微軟是 2023 年度NVIDIA H100 GPU 晶片的兩大買家。
Meta 表示,將使用 MI300X 晶片來處理人工智慧推理工作負載,比如人工智慧貼紙、圖像編輯以及語音助手的運行。
微軟首席技術長凱文・斯科特 (Kevin Scott) 表示,將使用 MI300X 晶片在公司的 Azure 服務上。
甲骨文的雲端運算也將使用這種晶片。
OpenAI 表示將在一款名為 Triton 的軟體產品中支援 AMD 的 GPU 晶片。Triton 不是像 GPT 那樣的大型語言模型,但也利用晶片功能開展人工智慧研究。
與NVIDIA相比還不成比例,但AMD不需要擊敗NVIDIA
AMD 目前還沒有對這款晶片的大規模銷售做出預測,僅預計 2024 年資料中心 GPU 的總營收約為 20 億美元。相比之下,單單最近一個季度NVIDIA的資料中心營收就超過 140 億美元,不過這一資料中還包括 GPU 以外的其他晶片業務。
然而 AMD 表示,未來四年人工智慧 GPU 晶片市場的規模可能會攀升至 4000 億美元,是公司此前預期的 2 倍。這表明業內對高階人工智慧晶片的期望很高,也正是 AMD 現在將投資者的注意力集中在產品線上的原因。
蘇姿丰還表示,AMD 並不認為需要擊敗NVIDIA才能在市場上取得更好業績。
在談到人工智慧晶片市場時,蘇姿丰說:「我認為很明顯,NVIDIA現在肯定佔據絕大多數市場。」「我們認為,到 2027 年這個數字可能會超過 4000 億美元。我們完全可以從中分得一杯羹。」
請注意!留言要自負法律責任,相關案例層出不窮,請慎重發文!