今年以來,人工智慧(AI)的熱潮席捲全球。不過,和AI對話還會消耗水資源嗎?AI費水背後的原因是什麼?科技巨頭們每年會消耗多少水資源?如果一個使用者向ChatGPT問了10到50個問題,可能會消耗掉500毫升的水。而如果成千上萬的使用者同時向AI提問,這背後會有多少水資源被消耗掉就難以估計了。
為什麼AI會消耗水資源?
根據路透社的一份新報告,與Alphabet的主席John Hennessy曾經透露,使用具有大型語言模型的聊天機器人的運行成本可能是普通搜尋的10倍之多。
早在2022年12月,就在ChatGPT推出後,OpenAI的首席執行長Sam Altman在Twitter上表示,「運算成本令人瞠目結舌」。這也是它在2月初推出ChatGPT Plus的部分原因,以每月20美元的價格提供更多的功能和更快的性能,並且幫OpenAI回收一點成本。
訓練和運行AI大型語言模型通常需要數以萬計的伺服器來提供計算資源、儲存資源以及低延遲的網路連線,這些伺服器會以叢集的方式部署在名為「資料中心」的物理場所,當它們一起工作時,會在短時間內產生高度集中的熱量,所以需要大量的水資源進行冷卻。
以微軟和Google為例。2022年,微軟一共用掉了約17億加侖(約64億公升)水,相當於可以填滿約2500個奧運會規格的泳池;而Google的資料中心和辦公室則用掉了總計56億加侖(約212億公升)水,相當於8500個奧運會規格的游泳池。
資料顯示,現在AI所需要的算力預計每100天就會增加一倍,並且在未來五年內可能會增長超過一百萬倍。研究人員預計,到2027年,全球範圍內的AI需求可能會需要消耗掉66億立方公尺的水資源,幾乎相當於美國華盛頓州全年的取水量。
美國聖克拉拉大學馬庫拉應用倫理學中心高級主管 安·斯基特:我認為很快就會有監管機構開始行動,而歐盟明年就會提高相關的監管要求,要求公司披露它們的用水情況。
有效降低用水量和空間使用量
資料中心的能耗問題一直是各家科技公司的「老大難」問題。據統計,美國國內的資料中心的耗電量,占到了全美電能消耗的2%。資料中心快速增長也造成了巨大的能耗。
因此,不少資料中心都在竭盡全力探索可能的節能提效方案。以微軟為例,作為全球雲端和運算的耗能大戶,微軟在近幾年一直在不遺餘力的探索可行方案,比如在2018年建立「水下資料中心」就是一種方式。
請注意!留言要自負法律責任,相關案例層出不窮,請慎重發文!