最近,英偉達(NVIDIA)在人工智能領域又有了新動作,他們推出了 Minitron 系列的小型語言模型,包含4B 和8B 兩個版本。這些模型不僅讓訓練速度提高了整整40倍,還能讓開發者更輕鬆地使用它們進行各種應用,比如翻譯、情感分析和對話 AI 等。

image.png

你可能會問,爲什麼小型語言模型這麼重要呢?其實,傳統的大型語言模型雖然性能強勁,但它們的訓練和部署成本非常高,常常需要大量的計算資源和數據。爲了能讓更多的人能用得起這些先進技術,英偉達的研究團隊想出了一個絕妙的辦法:結合 “修剪”(pruning)和 “知識蒸餾”(knowledge distillation)兩種技術,來高效地減小模型的規模。

具體來說,研究人員首先會從已有的大型模型出發,對其進行修剪。他們會評估模型中每個神經元、層或注意力頭的重要性,並把那些不太重要的部分去掉。這樣一來,模型就變得小巧了很多,訓練時所需的資源和時間也大大減少。接下來,他們還會用一個小規模的數據集對修剪後的模型進行知識蒸餾訓練,從而恢復模型的準確性。令人驚喜的是,這個過程不僅省錢,還能提高模型的性能!

在實際測試中,英偉達的研究團隊在 Nemotron-4模型家族上取得了很好的成果。他們成功將模型大小減少了2到4倍,同時保持了相似的性能。更令人興奮的是,8B 模型在多個指標上超過了其他知名模型,如 Mistral7B 和 LLaMa-38B,並且在訓練過程中所需的訓練數據少了整整40倍,計算成本節省了1.8倍。想象一下,這意味着什麼?更多的開發者可以用更少的資源和成本,體驗到強大的 AI 能力!

英偉達將這些優化過的 Minitron 模型開源在 Huggingface 上,供大家自由使用。

image.png

demo入口:https://huggingface.co/collections/nvidia/minitron-669ac727dc9c86e6ab7f0f3e

劃重點:

📈 ** 提升訓練速度 **:Minitron 模型訓練速度比傳統模型快40倍,讓開發者省時省力。

💡 ** 節省成本 **:通過修剪和知識蒸餾技術,大幅降低訓練所需的計算資源和數據量。

🌍 ** 開源共享 **:Minitron 模型已在 Huggingface 上開源,更多人能輕鬆獲取和使用,推動 AI 技術普及。