近期,非營利性人工智能研究機構Epoch AI公布了一項關于ChatGPT能耗的新研究成果,挑戰了之前廣泛流傳的能耗認知。據此前報道,ChatGPT回答一個問題所需的能耗約為3瓦時,這一數字是谷歌搜索的10倍。然而,Epoch AI的研究人員對此提出了不同看法。
Epoch AI通過對OpenAI最新的默認模型GPT-4o進行深入分析,發現ChatGPT的平均查詢能耗實際上約為0.3瓦時,遠低于許多日常家用電器的能耗水平。Epoch AI的數據分析師約書亞?尤在接受采訪時表示,與日常使用的電器、調節室內溫度或駕駛汽車相比,ChatGPT的能耗其實并不顯著。
在AI行業快速發展的背景下,其能耗問題及對環境的影響日益受到公眾關注。上周,超過100個組織聯合發表公開信,呼吁AI行業和監管機構確保新建AI數據中心不會過度消耗自然資源,并避免依賴不可再生能源。
約書亞?尤指出,他開展這項分析的原因是之前的研究存在過時的問題。例如,得出3瓦時能耗估計的研究報告是基于OpenAI使用較老、效率較低的芯片來運行其模型的假設。尤表示,雖然公眾普遍認識到AI在未來幾年將消耗大量能源,但當前AI的能耗情況并未被準確描述。他還指出,之前3瓦時的估算數據是基于較舊的研究,且初步計算顯示這一數字可能過高。
盡管Epoch AI的0.3瓦時數據是一個估算值,因為OpenAI尚未公布足夠細節來進行精確計算,但這一研究仍然具有重要意義。同時,該分析并未考慮ChatGPT的圖像生成、輸入處理等額外功能所消耗的電量。尤承認,帶有長文件附件等“長輸入”的ChatGPT查詢可能會比普通問題消耗更多電量。
然而,尤也預計ChatGPT的基礎能耗未來可能會增加。他指出,AI將變得更加先進,訓練這些AI可能需要更多能源。未來的AI可能會被更頻繁地使用,并處理更復雜、更多的任務。OpenAI和整個AI行業的關注點也在向推理模型轉移。與GPT-4o等能夠近乎即時響應的模型不同,推理模型需要花費更多時間來“思考”答案,這一過程會消耗更多計算能力,從而導致更高能耗。
尤表示,推理模型將承擔越來越多舊模型無法完成的任務,并為此生成更多數據,這都需要更多數據中心支持。盡管OpenAI已經開始推出更節能的推理模型,如o3-mini,但目前來看,這些效率提升似乎不太可能完全抵消推理模型“思考”過程以及全球AI使用量增加所帶來的額外能耗需求。