據《紐約客》雜誌報導,OpenAI的熱門聊天機器人ChatGPT每天可能要消耗超過50萬千瓦時的電力,以響應使用者的大約2億個請求。相比之下,美國家庭平均每天使用約29千瓦時的電力。將ChatGPT每天的用電量除以普通家庭的用電量,可以發現ChatGPT每天的用電量是家庭用電量的1.7萬多倍。
聽起來很多,但如果生成式人工智慧被進一步採用,耗電量可能會更多。
使用GPT會「很渴」
其實AI所耗用的電量,與AI「在哪裡」訓練也有相當的關係。
先前加州大學河濱分校電機與電腦工程系副教授Shaolei Ren曾在他的論文《Making AI Less “Thirsty”: Uncovering and Addressing the Secret Water Footprint of AI Models》指出,如果GPT-3是在微軟最先進的美國資料中心訓練GPT-3時,將直接消耗70萬公升的乾淨淡水,但如果換到微軟的亞洲資料中心訓練,用水量將漲到3倍。
微軟的資料中心已經是相當先進了,而如果是其它較小規模的企業資料中心來訓練AI的話,耗用的只有更多的可能。
由此來計算,ChatGPT回答20~50個問題,需要500ml的水。而這還僅是GPT-3的運算消耗。
因此,Shaolei Ren在他的論文指出,使用AI模型將會「很渴」。
AI生成融入搜尋,威力無窮但耗電也無窮
如果考慮到把AI融入其它應用,那算法就更複雜了。
例如,根據荷蘭國家銀行(Dutch National Bank)資料科學家亞歷克斯·德弗里斯(Alex de Vries)在可持續能源期刊《焦耳》(Joule)上發表的一篇論文中的計算,如果Google將生成式AI技術整合到每次搜尋中,它每年將消耗約290億千瓦時的電量。據《紐約客》報導,這比肯亞、瓜地馬拉和克羅埃西亞等國一年的用電量還要多。
「人工智慧是非常耗能的,」德弗里斯說,「每個人工智慧伺服器的耗電量已經相當於十幾個英國家庭的總和。所以這些數字很快就會增加。」
然而,估計蓬勃發展的人工智慧行業消耗多少電力是很難確定的。據the Verge報導,大型人工智慧模型的運行方式存在相當大的差異,而推動人工智慧繁榮的大型科技公司並沒有完全公開他們的能源使用情況。
然而,在他的論文中,德弗里斯提出了一個基於NVIDIA公佈的資料的粗略計算。這家晶片製造商佔據了圖形處理器市場約95%的市佔率。
德弗里斯在論文中估計,到2027年,整個人工智慧行業每年將消耗85至134太瓦時(1太瓦時相當於10億千瓦時)。
「到2027年,人工智慧的用電量可能佔全球用電量的0.5%,」德弗里斯說,「我認為這是一個相當重要的數字。」
事實上,AI的能源足跡並不會隨著訓練而結束。德弗里斯的分析表明,當該工具投入工作(根據提示生成資料)時,每次該工具生成文字或圖像後,它也會使用大量的計算能力,從而消耗大量的能源。例如,ChatGPT 每天的運行費用可能為 564 MWh。
Google已經將生成式人工智慧納入公司的電子郵件服務中,並正在測試利用人工智慧為其搜尋引擎提供動力。目前該公司每天處理多達 90 億次搜尋。根據資料,德弗里斯估計,如果Google每次搜尋都使用人工智慧,每年大約需要 29.2 TWh 的電力,相當於愛爾蘭一年的用電量。
- 延伸閱讀:訓練AI大模型太耗電,微軟打算用小型核反應爐(SMR)為AI供電
- 延伸閱讀:微軟工程師算給你看:NVIDIA H100 AI 晶片總耗電量明年將超越鳳凰城所有家庭總用電量
- 延伸閱讀:研究指出生成式 AI 所消耗的能源,到了2027 年用電量將超過某些國家一年耗電
請注意!留言要自負法律責任,相關案例層出不窮,請慎重發文!