阿布扎技術創新研究院(TII)近期推出了全新的開源大型語言模型 ——Falcon H1R7B。這款模型在維持緊湊的7億參數規模的同時,展現了行業領先的推理性能,顯著挑戰了 “越大越強” 的傳統觀念。讓我們一同瞭解這款引人矚目的新產品。

Falcon H1R7B 的設計與訓練流程分爲兩個階段。首先是 “冷啓動監督微調”(SFT),這一步主要基於已有的 Falcon-H1-7B 模型,專注於在數學、編程和科學等領域進行訓練。接下來是 “強化學習增強”(GRPO),在 SFT 的基礎上,通過獎勵機制來優化模型,從而提升推理的邏輯性和輸出的多樣性。

image.png

在性能方面,Falcon H1R7B 在速度、Token 效率和準確率等多個維度進行了深入優化。其獨特的 “Deep Think with Confidence”(DeepConf)推理方法,不僅生成更少的 Token,還能顯著提高整體準確性。此外,該模型採用了 Transformer 與 Mamba(狀態空間模型)的混合架構,使其在處理長上下文時表現更加出色,並提升了推理的吞吐率。

值得注意的是,Falcon H1R7B 在多個公開基準測試中表現非凡。比如,在數學推理方面,它在 AIME-24測試中獲得了88.1% 的優異成績,領先於許多15B 模型;在代碼和代理任務的 LCB v6測試中以68.6% 的得分成爲了 <8B 模型中的佼佼者;而在通用推理能力的 MMLU-Pro 和 GPQA 測試中,它的競爭力甚至超過了一些更大型的模型。

image.png

不僅如此,Falcon H1R7B 的推理吞吐量也相當可觀。在常見的批量大小下,每個 GPU 的 Token 處理速度高達約1500tokens/s,幾乎是部分競爭對手的兩倍。即使在低算力環境下,該模型也能有效完成深度推理任務,非常適合開發者和企業進行部署。

這款開源模型的完整檢查點及量化版本已在 Hugging Face 上提供,方便研究、產品開發與實驗使用。Falcon H1R7B 無疑將在開源 AI 領域掀起新的浪潮。