在一篇關於“奇點”的浪漫化文章中,OpenAI 首席執行官薩姆·奧特曼(Sam Altman)無意中揭示了人工智能能耗的一個有趣細節:單個 ChatGPT 請求平均消耗 0.34 瓦時電力和 0.000085 加侖水。這一數字乍聽之下似乎微不足道,大致相當於 2009 年穀歌搜索的能耗,但奧特曼在強調這一“低能耗”時,卻忽略了一個關鍵因素:ChatGPT 人均處理的請求量可能遠超當年谷歌搜索的平均水平。

奧特曼的“浪漫化”描述,或許意在強調技術進步帶來的能效提升,然而,隨着多模態系統、智能代理和高級推理引擎等新型人工智能模型對計算能力的需求呈爆炸式增長,數據中心的快速擴張已然成爲不爭的事實。這些龐大基礎設施的建設和運營,無疑預示着人工智能系統的整體能耗需求將持續攀升。

ChatGPT

我們不能簡單地將 ChatGPT 的單次查詢能耗與過去的谷歌搜索進行比較,而忽視了當前人工智能應用所承載的巨大任務量和複雜性。無論是文本生成、圖像識別還是更復雜的決策支持,每一步都離不開高強度計算的支撐。這種對算力的無限渴求,使得數據中心在不斷擴建的同時,也面臨着巨大的能源挑戰。

因此,奧特曼提及的 ChatGPT 能耗數據,與其說是一個令人欣慰的數字,不如說是一個提醒。它促使我們深入思考:在追求人工智能無限潛力的同時,如何有效管理並降低其日益增長的能耗,將是未來科技發展中不可迴避的重大議題。這不僅僅是技術層面的挑戰,更關乎可持續發展和全球能源戰略的佈局。