生成式人工智能(GenAI)將占據(jù)全球更大的電力消耗,以滿足運行應(yīng)用程序的龐大硬件需求。半導(dǎo)體研究公司TechInsights上個月在一份研究報告中表示:“未來五年,人工智能加速器將消耗全球2318太瓦時的電力,將占全球用電量的1.5%,占全球能源的很大一部分?!?/span>
TechInsights對2025年至2029年間全球總用電量進行了基線測量,數(shù)據(jù)來自美國能源情報署。該測量是基于每個GPU使用700瓦的功耗,這是英偉達旗艦Hopper GPU的功耗。英偉達即將推出的名為Blackwell的GPU速度更快,但功耗為1200瓦。
TechInsights的假設(shè)僅包括芯片消耗的功率,不包括存儲、內(nèi)存、網(wǎng)絡(luò)和用于生成式人工智能(GenAI)的其他組件的功耗測量。
TechInsights分析師Owen Rogers在一份研究報告中表示:“考慮到對GPU容量的巨大需求,以及為這些昂貴資產(chǎn)提供回報的需要,如此高的利用率是可行的?!?/span>
麥肯錫的一項人工智能調(diào)查顯示,65%的受訪者打算采用GenAI。
為了滿足需求,云提供商和超大規(guī)模廠商正在投資數(shù)十億美元來增加GPU的數(shù)量。微軟依靠英偉達的GPU來運行其人工智能基礎(chǔ)設(shè)施,而Meta聲稱將擁有一個相當(dāng)于“近60萬個H100”GPU的計算環(huán)境。
根據(jù)TechInsights的數(shù)據(jù),英偉達在2023年的GPU出貨量約為376萬顆,高于2022年的約260萬顆。
去年,Gartner對電力消耗做出了更為激進的預(yù)測,稱人工智能“可能消耗全球3.5%的電力”。Gartner的方法尚不清楚,但可能包括網(wǎng)絡(luò)、存儲和內(nèi)存。
人工智能競賽的特點是公司提供最快的基礎(chǔ)設(shè)施和更好的結(jié)果。在商業(yè)中應(yīng)用人工智能的熱潮打亂了長期建立的企業(yè)可持續(xù)發(fā)展計劃。
微軟(Microsoft)、谷歌(Google)和亞馬遜(Amazon)正斥資數(shù)十億美元,建設(shè)配備GPU和人工智能芯片的巨型數(shù)據(jù)中心,以訓(xùn)練和服務(wù)更大的模型,這進一步增加了電力負(fù)擔(dān)。
成本挑戰(zhàn)
Rogers在研究報告中說,服務(wù)器可以花2萬美元購買,但企業(yè)需要考慮到不斷增長的電力成本和能源網(wǎng)絡(luò)面臨的挑戰(zhàn)。數(shù)據(jù)中心還需要設(shè)計成能夠處理人工智能的電力需求。這種需求可能取決于電網(wǎng)容量和備用電力容量的可用性。能源公司也有責(zé)任為人工智能時代做好準(zhǔn)備,建立發(fā)電站、太陽能農(nóng)場、輸電線路等電力基礎(chǔ)設(shè)施。
“如果需求無法滿足,能源供應(yīng)商將采取基于市場的方法來管理產(chǎn)能,即提高價格以減少消耗,而不是拒絕產(chǎn)能。這樣,可能會對人工智能技術(shù)的用戶產(chǎn)生成本影響。”Rogers說。
美國政府的第一個目標(biāo)是到2035年生產(chǎn)100%的清潔能源,這將減輕電網(wǎng)的負(fù)擔(dān)。這也將為更多的人工智能數(shù)據(jù)中心打開大門。
有效利用能源
人工智能消耗的電力側(cè)面反映了加密貨幣挖礦給電網(wǎng)帶來的負(fù)擔(dān)。根據(jù)美國能源情報署2月份發(fā)布的一份報告,加密貨幣挖礦約占美國用電量的2.3%。然而,能源行業(yè)觀察人士一致認(rèn)為,與比特幣挖礦相比,人工智能是一種更有效的能源利用方式。
英偉達的人工智能重點還在于有效利用能源。為了降低能耗,英偉達的GPU采用了自己的芯片技術(shù)。該公司正在將散熱技術(shù)從空氣冷卻改為液體冷卻。
英偉達超大規(guī)模和高性能計算業(yè)務(wù)副總裁兼總經(jīng)理Ian Buck在上個月的一次投資者活動上表示:“這里的機會……是幫助他們通過一個固定的兆瓦級數(shù)據(jù)中心,以盡可能低的成本獲得最大性能?!?/span>
高性能計算提供商、人工智能和可持續(xù)性
在最近的ISC 24超級計算會議上,小組成員取笑英偉達,聲稱其1000瓦的GPU是“可持續(xù)的”。
政府實驗室還表示,GPU和直接液體冷卻比過去的CPU提供了更好的性能擴展。美國勞倫斯利弗莫爾國家實驗室正在建造即將到來的2百億億次超級計算機“酋長”(El Capitan),該實驗室將冷卻能力增加了18,000噸,提高到28,000噸,并將當(dāng)前和未來系統(tǒng)的電力供應(yīng)提高到85兆瓦。
LLNL首席技術(shù)官Bronis de Supinski在一個分組討論會上表示:“El Capitan…耗電量將低于40兆瓦,約為30兆瓦,但這仍是很大的電力?!?/span>
他承認(rèn),El Capitan超級計算機可能不被認(rèn)為是環(huán)保的,但重點也應(yīng)該放在性能-功率范圍內(nèi)取得的成果上。例如,如果一臺超級計算機能夠解決氣候問題,那么它所消耗的能量可能是值得的。
“一臺30兆瓦的超級計算機?我不會告訴你這是一種可持續(xù)的資源,但它可以做很多事情來解決我們想要解決的社會問題,” Supinski說。
實驗室也在轉(zhuǎn)向可再生能源和液體冷卻。例如,LRZ的主席Dieter kranzlller在ISC 24會議上表示,液體冷卻“節(jié)省了大約50%的冷卻能源”。
在可持續(xù)計算環(huán)境中,碳中和、捕獲和再利用廢熱以及材料再利用也被考慮在內(nèi)。
HPC的過去驅(qū)動未來
讓超級計算機更節(jié)能的努力現(xiàn)在被用來更好地利用人工智能處理中消耗的每一瓦特能源。
在上個月的惠普Discover大會上,惠普首席執(zhí)行官?Antonio Neri表示,公司正在將Frontier和El Capitan中使用的能效技術(shù)移植到搭載英偉達GPU的人工智能系統(tǒng)中。“惠普擁有世界上最大的水冷制造能力之一。為什么?因為我們必須為超級計算機做這件事。”英偉達首席執(zhí)行官黃仁勛也在臺上稱:“液體冷卻的未來將帶來更好的性能、更低的基礎(chǔ)設(shè)施成本和更低的運營成本。”
終端人工智能
消費設(shè)備制造商正在兜售帶有人工智能神經(jīng)芯片的個人電腦和其他移動設(shè)備終端。神經(jīng)芯片可以在本地運行人工智能模型,減少云計算中GPU的壓力。
蘋果提供了其設(shè)備上和云上人工智能戰(zhàn)略的完整愿景——如果iPhone或Mac確定無法在設(shè)備上完成人工智能任務(wù),它會將查詢重新路由到蘋果數(shù)據(jù)中心的云服務(wù)器。蘋果用戶還可以選擇是在設(shè)備上運行人工智能還是通過云運行。
微軟鼓勵在Windows設(shè)備中使用人工智能芯片。高通的AI Hub允許用戶運行基準(zhǔn)測試,以了解AI模型在設(shè)備上的運行情況。這可以讓用戶決定是在設(shè)備上運行推理還是在云中運行。然而,目前還沒有針對個人電腦的人工智能殺手級應(yīng)用程序,可以讓個人電腦將人工智能的壓力從云端的GPU轉(zhuǎn)移下來。