![OpenAI 自研晶片傳即將生產:博通、台積電助陣,終結對 Nvidia 的高度依賴](https://cdn2.techbang.com/system/excerpt_images/121409/post_inpage/f657c19c7e3ead64da2a8e9482a358f2.jpg?1739430942)
人工智慧 (AI) 研究實驗室 OpenAI 正秘密研發一款客製化 AI 處理器,目標是擺脫對繪圖處理器 (GPU) 大廠 Nvidia 的高度依賴。根據路透社報導,OpenAI 這項備受矚目的晶片自研計畫已進入最終階段,預計在未來幾個月內,將晶片設計送交晶圓代工龍頭台積電 (TSMC) 進行生產。儘管 OpenAI 官方尚未正式公開宣布這項消息,但此舉已在科技產業掀起波瀾,引發各界高度關注。
降低成本、擺脫壟斷,OpenAI 晶片自研計畫浮上檯面
OpenAI 晶片自研計畫的曝光,並非空穴來風。早在 2023 年 10 月,科技媒體便已報導 OpenAI 有意自行開發 AI 加速晶片,以降低營運成本,並減少對 Nvidia 等少數晶片供應商的依賴。近年來,隨著 AI 技術的快速發展,高效能 GPU 需求水漲船高,Nvidia 在 AI 晶片市場的主導地位也日益鞏固,掌握了市場定價權。
為了擺脫受制於人的局面,降低高昂的 GPU 採購成本,包括微軟 (Microsoft)、亞馬遜 (Amazon)、Google、Meta 等科技巨擘,近年來紛紛投入資源,自行研發 AI 加速晶片。OpenAI 作為 AI 領域的領導者,自然不甘落後,也積極展開晶片自研計畫,希望能掌握關鍵技術自主權,提升市場競爭力。
技術細節、量產時程仍是未知數,OpenAI 逐步優化晶片設計
目前,OpenAI 自研 AI 晶片的完整功能、技術細節以及確切的量產時程仍未公開。但根據報導,OpenAI 計劃在未來幾個月內將晶片設計送交台積電,委託台積電以 3 奈米製程技術進行生產。OpenAI 內部人士透露,公司有意逐步優化晶片設計,初期將先推出專注於 AI 模型推論 (Inference) 的晶片版本,而非用於模型訓練 (Training) 的晶片。
業界專家分析,OpenAI 自研晶片初期可能將採小規模部署,主要用於 OpenAI 內部使用,以驗證晶片效能並收集實際應用數據,為後續晶片的版本更新奠定基礎。大規模量產預計最快也要等到 2026 年,但實際量產時程仍可能面臨技術挑戰,進而導致延遲。
重金禮聘晶片設計專家,博通、台積電助陣 OpenAI 晶片計畫
OpenAI 為了實現晶片自研的宏大目標,不惜重金禮聘業界頂尖人才。據路透社報導,OpenAI 的晶片自研計畫由 Google 前晶片設計師 Richard Ho 領軍,並組建了一支 40 人的專業工程團隊。此外,OpenAI 也與晶片設計大廠博通 (Broadcom) 展開合作,共同進行晶片設計。晶片製造方面,則選擇與長期合作夥伴台積電攜手,借重台積電先進的製程技術與量產能力。
報導指出,OpenAI 自研晶片將採用與 Nvidia 高階 GPU 相似的架構設計,包括高頻寬記憶體 (High Bandwidth Memory, HBM) 以及高速網路互連技術,以確保晶片在處理 AI 運算任務時,具備優異的效能表現。
AI 基礎建設軍備競賽開打,OpenAI 擴大 AI 資料中心投資
OpenAI 大舉投入 AI 晶片自研,正值全球科技巨頭掀起 AI 基礎建設軍備競賽之際。為了搶佔 AI 發展先機,各家科技公司紛紛斥資擴建 AI 資料中心,部署更強大的 AI 運算基礎設施。路透社指出,微軟計劃在 2025 年投入 800 億美元,Meta 更預計在明年投入 600 億美元,用於擴建 AI 基礎設施。
OpenAI 也不遑多讓,上個月更宣布了一項大規模的「星際之門」(Stargate) 基礎設施計畫,將與軟銀 (SoftBank)、甲骨文 (Oracle) 以及 MGX 等科技巨頭合作,在美國境內打造全新的 AI 資料中心,展現其在 AI 基礎建設領域的雄心。
晶片自研成趨勢,Nvidia 市場主導地位面臨挑戰?
OpenAI 投入 AI 晶片自研,並非個案。近年來,包括 Google、亞馬遜、微軟、Meta、蘋果 (Apple) 等科技巨頭,皆已紛紛投入資源,自行研發 AI 加速晶片,以降低對 Nvidia 等外部晶片供應商的依賴,並打造更符合自身需求的客製化 AI 運算平台。
- Google TPU (Tensor Processing Unit):Google 自研的 TPU 晶片,專為加速機器學習工作負載而設計,已廣泛應用於 Google 旗下各項 AI 服務,例如 Google 搜尋、翻譯、語音助理等。
- Amazon Trainium & Inferentia:亞馬遜雲端服務 AWS 推出 Trainium 和 Inferentia 系列 AI 晶片,分別用於 AI 模型訓練與推論,協助 AWS 客戶降低 AI 運算成本,提升效能。
- Microsoft Azure Maia & Azure Cobalt:微軟 Azure 雲端平台亦推出 Maia AI 加速器和 Cobalt CPU 等自研晶片,旨在提升 Azure 雲端服務的 AI 運算效能與能源效率。
- Meta MTIA (Meta Training and Inference Accelerator):Meta 正在開發 MTIA 系列 AI 晶片,目標是加速 Meta 旗下 AI 模型訓練與推論,提升 Facebook、Instagram 等社群平台的 AI 應用體驗。
科技巨頭紛紛投入 AI 晶片自研,無疑將對現有的 AI 晶片產業生態鏈帶來深遠影響。長期以來,Nvidia 在 AI 晶片市場一直處於領導地位,但隨著科技巨頭紛紛投入自研晶片,Nvidia 的市場領導地位勢必面臨更嚴峻的競爭。
然而,業界專家也指出,AI 晶片自研需要巨額投資,技術門檻極高,並非所有企業都能輕易跨入。Nvidia 在 AI 晶片領域深耕多年,已建立起完整的軟硬體生態系統與技術護城河,短期內其市場領導地位仍難以撼動。
- 新聞來源:arstechnica
請注意!留言要自負法律責任,相關案例層出不窮,請慎重發文!