最近,人工智能研究公司 Epoch AI 發佈了一款互動模擬器,專門用於模擬訓練大型語言模型所需的計算能力。通過這款模擬器,研究人員發現,雖然可以使用2012年的老舊顯卡(如 GTX580)來訓練 GPT-4,但成本將是如今現代硬件的十倍。

image.png

Epoch AI 的研究顯示,訓練 GPT-4所需的浮點運算次數(FLOP)在1e25到1e26之間。爲了進行這項研究,模擬器分析了不同顯卡的效率,特別是在模型規模擴大時的表現。結果表明,隨着模型的增長,效率通常會降低。以近年來推出的 H100顯卡爲例,它能在較長時間內保持較高的效率,而 V100顯卡則在面對更大訓練規模時效率下降得更加明顯。

在 Epoch AI 的實驗中,GTX580顯卡的內存僅爲3GB。這款顯卡曾是2012年訓練 AlexNet 模型時的主流選擇。儘管技術已經進步,但研究人員認爲,使用老舊硬件進行如此大規模的訓練是可能的,不過所需的資源和成本卻非常高。

此外,這款模擬器還支持在多個數據中心之間進行復雜的訓練模擬。用戶可以自定義數據中心的規模、延遲和連接帶寬等參數,從而模擬跨多個位置的訓練運行。這一工具還允許分析現代顯卡(如 H100和 A100)之間的性能差異,研究不同批量大小和多 GPU 訓練的效果,並生成詳細的日誌文件記錄模型的輸出。

Epoch AI 表示,開發這個模擬器的目的是爲了加深對硬件效率提升的理解,並評估芯片出口管制的影響。隨着大型訓練任務在本世紀的預期增加,瞭解未來所需的硬件要求變得尤爲重要。

劃重點:  

💻2021年推出的 GTX580顯卡能以十倍成本訓練 GPT-4,但效率低下。  

📊 模擬器可分析不同 GPU 的性能差異,並支持多數據中心訓練模擬。  

🔍 該研究旨在提升對未來硬件需求的理解,助力大型 AI 模型的訓練。