最近,一項由非營利組織 Epoch AI 進行的研究揭示了 OpenAI 的聊天機器人平臺 ChatGPT 的能耗情況,結果顯示,ChatGPT 的能耗遠低於早期的估算。根據一些報道,ChatGPT 回答一個問題需要約3瓦時的電力,而 Epoch AI 的研究認爲這個數據被高估了。研究表明,使用 OpenAI 最新默認模型 GPT-4o 時,平均每個查詢僅消耗約0.3瓦時的電力,這一數字甚至低於許多家用電器的能耗。

Epoch AI 的數據分析師 Joshua You 表示,傳統上人們對 AI 能耗的擔憂並沒有準確反映出當前的情況。早期的3瓦時估算主要是基於一些過時的研究和假設,當時的假設是 OpenAI 使用的是效率較低的芯片。You 還指出,儘管公衆對 AI 未來的能耗有合理的擔憂,但對目前的情況並沒有清晰的認識。
然而,You 也承認,Epoch 的0.3瓦時的數字仍是一個近似值,因爲 OpenAI 並未公開詳細的能耗計算數據。此外,這項分析也沒有考慮到一些附加功能所帶來的能耗,比如圖像生成或輸入處理。對於較長的輸入查詢,如帶有大量文件的查詢,You 表示這類查詢的能耗可能會更高。
儘管目前的能耗數據較低,You 預計未來的能耗仍可能會上升。他提到,隨着 AI 技術的進步,訓練這些模型的能量需求可能會增加,未來的 AI 也可能承擔更復雜的任務,從而消耗更多的電力。
與此同時,AI 的基礎設施正在快速擴展,這將導致巨大的電力需求。例如,根據 Rand 公司的報告,預計在未來兩年內,AI 數據中心可能需要幾乎全部加利福尼亞州2022年的電力供應。到2030年,訓練一個前沿模型的能耗將達到相當於八個核反應堆的電力輸出。
OpenAI 和其投資合作伙伴計劃在未來幾年內在新 AI 數據中心項目上投入數十億美元。隨着 AI 技術的發展,行業的關注也開始轉向推理模型,這些模型在處理任務時更具能力,但也需要更多的計算能力和電力支持。
對於那些關心自己 AI 能耗的人,You 建議可以減少使用頻率,或選擇計算需求較低的模型來進行使用。
劃重點:
🌱 ChatGPT 的平均能耗爲0.3瓦時,遠低於早期估算的3瓦時。
🔌 AI 能耗的增加主要與未來的技術進步和更復雜任務的處理有關。
🏭 OpenAI 計劃在未來幾年投入鉅額資金擴展 AI 數據中心,以滿足日益增長的電力需求。
