所有語言
分享
圖片來源:由無界 AI 生成
伴隨年初微軟支持的ChatGPT大火,以及谷歌、Meta等一眾競爭對手快速推出大語言模型(LLM)和生成式人工智能競品,AI儼然正在快速推進至人類生活的更多方面,相關需求也水漲船高。
鮮為人知的是,AI大火還帶動了數據中心成本飆升,最新報道便點明:“與運行人工智能数字運算相關的能源使用,正迅速成為數據中心費用上漲的關鍵驅動因素。”
對人工智能的需求飆升,令一些數據中心的運營商們趁機提高商業租賃價格,以應對為運行日益能源密集型工作負載的計算機服務器組群(stack)供電和散熱而產生的額外成本。
據全球最大商業房地產服務公司之一的世邦魏理仕(CBRE Group)統計,數據中心客戶囊括了小型企業到大型雲服務供應商,目前消耗電力的速度快於數據中心運營商擴展容量的速度。由於人工智能用例的增加,供應限制日益嚴重,這為數據中心收取的價格帶來了上行壓力。
例如,在擁有超過275個設施的全球最大數據中心市場——美國北弗吉尼亞州,今年可供租賃的電量從一年前的46.6兆瓦減少至38.4兆瓦,降幅高達17.6%,而總體電量庫存實際同比增長了19.5%至2132兆瓦,主要由於用於訓練生成式AI模型的GPU功耗很大且在快速增加。
此外,與AI需求相關的額外功率還需要輔以更先進的硬件冷卻系統,這些製冷系統不僅能耗很高,往往比傳統的空氣冷卻器更昂貴且佔地面積更大,均屬於人工智能推高數據中心價格的動因之一。
同時,在AI需求旺盛的當下,數據中心客戶支付的電費也更為高昂。市場研究公司Synergy Research Group的首席分析師John Dinsdale坦言,數據中心運營商正將運行AI應用程序產生的額外成本直接轉嫁到客戶身上。
據世邦魏理仕統計,今年前三個月,美國北弗吉尼亞州的數據中心客戶每月每千瓦電力支付的費用高達140美元,比一年前的130美元增長了7.7%。在硅谷,數據中心的空置率目前處於接近歷史低點的2.9%,客戶每千瓦每月最高電價攀升至250美元,較去年的175美元猛增了43%。
據介紹,人工智能應用程序比傳統軟件消耗更多的能量,因為它們旨在讀取更大量的數據。幾天之內,單個人工智能模型可能會消耗數萬千瓦時的電力,而生成式AI模型可比標準AI工具再大100倍。市場研究公司Enterprise Technology Research今年對約500名企業IT決策者進行了調查,其中有一半以上都表示,計劃評估、部署或投入更多資源用於類似ChatGPT的生成式AI技術。
還有分析指出,由於許多雲供應商也租賃數據中心的空間,隨着越來越多的公司採用生成式人工智能,不斷上漲的數據中心成本可能會導致更高的雲計算費用。鑒於生成式AI工作負載需要更多的計算,勢必更廣泛地影響數據中心的能源效率和冷卻系統,即影響會遍及行業的方方面面。
據蘭洋科技的科普文章,業內普遍認為,數據中心能耗高、能耗增長快,占我國能源消費比重逐年提高。數據中心的能耗消費特點是較為集中,除IT設備外,製冷系統等輔助設施能耗比例高:
“IT設備使用的電力最終會轉化為熱量,數據中心必須通過使用同樣消耗能源的冷卻設備去除熱量。平均而言,冷卻系統和服務器占數據中心能耗的大部分,其次是網絡設備和存儲驅動器。”
而能耗也直接與運營成本相關。據諮詢機構Tirias Research建模預測,到2028年數據中心功耗將接近4250兆瓦,比2023年增加212倍,數據中心基礎設施加上運營成本總額或超760億美元。
這堪稱“生成式AI顛覆數據中心”,其增長對新興服務(例如搜索、內容創建和結合生成式AI的業務自動化)的商業模式和盈利能力都提出了挑戰,成本更是亞馬遜AWS年運營成本的兩倍多。
該機構稱,生成式AI帶來的種種創新功能,都是以處理性能和功耗方面的高昂成本為代價。因此,雖然人工智能的潛力可能是無限的,但物理和成本最終可能是界限。
為了降低成本,該機構建議,可使用高度優化、甚至是更簡單、更專業的小型神經網絡模型來降低數據中心成本,方法是減少雲端的模型規模,將海量參數網絡用於快速訓練較小的模型,並將工作負載完全移出雲端,從而將生成式AI應用程序更加經濟高效地分發給智能手機、PC、車輛和移動XR產品等分佈式平台上運行:
“五年前,各公司在年度Hot Chips半導體技術會議上開始對數據中心功耗敲響警鐘,當時預測全球計算需求可能在十年內超過全球發電總量。那還是在生成式AI迅速採用之前,而生成式AI有可能以更快的速度增加計算需求。
天下沒有免費的午餐——消費者會要求更好的生成式AI輸出,而這將抵消效率和性能的提升。隨着消費者使用量的增加,成本將不可避免地攀升。將計算轉移到邊緣,並將其分配給PC、智能手機和XR設備等客戶端是降低資本和運營成本的關鍵途徑。”