隨著Meta大力發展人工智慧(AI)技術,該科技巨頭將斥資數十億美元購買NVIDIA AI晶片,這些晶片是AI研究和項目的核心。
先前我們報導過,Meta首席執行長祖克伯在社群媒體上表示,公司的AI未來路線圖要求其建立一個「大規模的計算基礎設施」。祖克伯表示,到2024年底,基礎設施將包括35萬張NVIDIA H100顯示卡。
當時,祖克伯並沒有透露Meta已經購買了多少H100顯示卡,但H100直到2022年底才上市,而且供應有限。
據投行Raymond James的分析師估計,NVIDIA的H100售價為2.5萬至3萬美元,如果Meta支付的是價格區間的低端,那麼這筆支出將接近90億美元。
此外,祖克伯表示,如果將其他GPU計算在內,Meta的計算基礎設施將包含“相當於近60萬張H100的算力”。
去年12月,Meta、OpenAI和微軟等科技公司表示,他們將使用AMD最新開發的人工智慧晶片Instinct MI300X——一款直接對標NVIDIAH100的晶片。
為AI之戰囤積武器
Meta需要這些算力晶片,該公司正致力於通用人工智慧 (AGI)的研究,祖克伯表示這是公司的長期願景。OpenAI和Google的DeepMind部門也在研究AGI。
AGI是一種與人類智力水平相當的未來人工智慧形式。
Meta首席科學家Yann LeCun上個月在舊金山的一次媒體活動中也強調了GPU的重要性。
「如果你認為AGI將大受歡迎,你就得買更多的GPU,」LeCun當時表示。對於NVIDIA首席執行官黃仁勳,LeCun表示:「一場人工智慧之戰正在打響,而他正在提供武器。」
Meta在2023年第三季度財報中表示,其2024年的總支出將在940億美元至990億美元之間,部分原因是算力擴張。祖克伯在與分析師的電話會議上表示,就投資重點而言,人工智慧將成為Meta 2024年最大的投資領域,無論是在工程還是計算資源方面。
祖克伯週四表示,Meta計畫“負責任地開源”其尚未開發的“通用人工智慧”,該公司也在Llama系列大型語言模型中採用了這種方法。他還表示,Meta目前正在訓練Llama 3,並使其基礎人工智慧研究團隊(FAIR)和GenAI研究團隊更緊密地合作。
- 延伸閱讀:分析師指出NVIDIA B100基板單價較H100高約10%,但微軟已經二話不說搶下單
- 延伸閱讀:微軟工程師算給你看:NVIDIA H100 AI 晶片總耗電量明年將超越鳳凰城所有家庭總用電量
請注意!留言要自負法律責任,相關案例層出不窮,請慎重發文!