AI水資源消耗驚人,液體冷卻技術成資料中心新寵

AI水資源消耗驚人,液體冷卻技術成資料中心新寵

ADVERTISEMENT

AI這個概念曾經是科幻小說和學術研究中的抽象主題,但在過去兩年,它已成為餐桌上的熱門話題。

這種轉變使人們廣泛意識到這項技術對環境的影響,最突出的是集中在訓練和部署這些模型所需的大量電力和水資源。這也是可以理解的。

最近一份報告發現,全球資料中心集聚地——北維吉尼亞的資料中心水資源消耗在過去五年中增加了三分之二。

「ChatGPT 需要『喝』一瓶 500 毫升的水才能進行一次簡單的對話,大約 20-50 個問答,具體取決於 ChatGPT 部署的時間和地點,」研究人員在去年年初發表的一篇論文中估計道。

更糟糕的是,這是針對一個約 1,750 億參數的 GPT-3 類模型,以今天的標準來看,這個數字在今天看來微不足道。GPT-4 據估計擁有 1.7 至 1.8 兆參數,正如 OpenAI 的 Trevor Cai 上週在他的 Hot Chips 主題演講中所說,這些模型只會變得更大。

雖然這對資料中心的電力消耗來說不是好消息,但對其對水的依賴來說可能並非如此。至少,不一定是這樣。

首先,在有人留言指出明顯的問題前,我們先澄清一下。資料中心並沒有真正消耗水。真正問題在於水資源被從當地環境中抽取,卻沒有回歸到原本的水源。其次,無論是否與 AI 相關,IT 基礎設施本身並不是耗水的元凶。

即使採用液冷,這些系統通常也是封閉迴路,在正常運作下幾乎不會損失任何明顯數量的液體。實際上大量消耗水資源的是位元倉的空氣處理器,通常稱為蒸發式冷卻器或沼澤冷卻器,用於防止這些系統過熱。

然而,重要的是要注意,這是一個設計選擇,蒸發式冷卻器並非在每個設施中都被使用。如果 Meta 或 Amazon 在你家後院設立 AI 資料中心,它們會對你當地的電網造成壓力,但這並不意味著它們會像 Google 在奧勒岡州 The Dalles 那樣吸乾你所在城鎮四分之一的供水。

在較寒冷的氣候下,乾式冷卻器和所謂的「免費冷卻」就足夠了,而在較熱、容易乾旱的地區,資料中心營運商選擇使用基於製冷劑的系統並不罕見。據我們所知,這正是微軟在其位於亞利桑那州固特異市的資料中心開發項目中所做的,儘管這是在與該市發生廢水糾紛之後才做的。

雖然有蒸發式冷卻的替代方案,但許多方案都會導致更高的電力消耗,而電力供應已經短缺,正如 CBRE 最近報導的那樣。

雖然對於現有的資料中心設施我們能做的有限,但在新建資料中心時,決定是否採用蒸發式冷卻最終還是歸結於貪婪,或者用政治正確的話來說,資本主義。

特別是對於超大規模業者來說,一切最終都歸結於利潤率。如果你能以比競爭對手便宜 5% 或更有效率的方式做事,你就能賺取更多的利潤,或者削弱他們並贏得他們的客戶群。而水恰好比其他替代技術更有效地從空氣中帶走熱量。這意味著更低的電力成本,或者能夠在電力受限的地區建造更大、更密集的設施。

即使是工業用電價格,電費累積的速度也很快。因此,在適合使用蒸發式冷卻器的市場中,這項技術提供了競爭優勢。

AI水資源消耗驚人,液體冷卻技術成資料中心新寵

還可以提出這樣的論點:如果蒸發式冷卻器的耗水量意味著可以減少燃燒化石燃料來維持電力供應,那麼這種權衡是值得的,但這在很大程度上取決於地點。蒸發式冷卻的本質意味著它們在乾旱地區最有效,而那裡的水資源已經很稀缺。

最終,它歸結為這一點:你可以選擇使用更多的電力或消耗更多的水。資料中心營運商在選擇冷卻方式時,會在電力消耗和水資源消耗之間進行權衡。如果水資源比電力便宜,而且供應充足,他們很可能會選擇消耗更多的水來進行冷卻,以節省電力成本。

然而,這可能正在改變。AI 創新的步伐看起來不會很快放緩。在這種氣候下,我們看到晶片變得越來越熱,超過了一千瓦的標記,並推動了向液體冷卻的轉變。

但是,這種情況可能正在改變。AI 技術的快速發展導致晶片功耗和發熱量不斷增加,傳統的空氣冷卻方式已經難以滿足需求,因此業界正在轉向更高效的液體冷卻技術。

我們在 GTC 上看到的 Nvidia 的 Grace Blackwell Superchips 額定功率為 2700 W,其中兩個設計為適合單個 RU 機箱。為了適應這種令人難以置信的密集封裝,Nvidia 毫不意外地選擇了直接液體冷卻(DLC)。

雖然直接液體冷卻技術(DLC)在營運效率方面可能更好——它比使用風扇散熱更節能——但它也給資料中心營運商帶來了重大難題,因為許多舊設施無法輕易進行改造以適應這項技術。

雖然液體冷卻技術的普及對某些人來說是個頭痛的問題,但諷刺的是,從長遠來看,它有可能減少水的消耗。這是因為液體冷卻具有較高的熱傳導係數,允許使用乾式冷卻器,其工作原理有點像汽車的散熱器,但規模更大。

在這些情況下,還存在熱能再利用的潛力。在 SC23 上提出的一個思想實驗中,預估訓練一個 GPT-3 大小的模型可以產生足夠的熱量來支持大約 4.6 個溫室,並種植超過一百萬個番茄。我們也看到過資料中心為區域供熱網路做出貢獻的其他例子。

然而,在部署足夠數量的液冷系統之前,我們可能會繼續看到關於資料中心用水量的頭條新聞,無論好壞。

netizen
作者

一個老派的科技媒體工作者,對於最新科技動態、最新科技訊息的觀察報告。

使用 Facebook 留言
發表回應
謹慎發言,尊重彼此。按此展開留言規則