近日,InternLM 團隊正式發佈了其開源的輕量級多模態推理模型 ——Intern-S1-mini。該模型參數僅爲8B,結合了先進的 Qwen3-8B 語言模型與0.3B 視覺編碼器 InternViT,展現出強大的處理能力和靈活性。
Intern-S1-mini 經過了大規模的預訓練,總共使用了超過5萬億的 token 數據。其中,令人矚目的是,超2.5萬億 token 來自於化學、物理、生物和材料等多個科學領域。這使得 Intern-S1-mini 不僅能進行常規的文本和視覺輸入處理,更能解析複雜的分子式、蛋白質序列,並有效規劃合成路徑,展示出其在科學研究領域的廣泛應用潛力。

根據官方提供的基準測試結果,Intern-S1-mini 在多個領域的任務表現上均超過了同類模型。在 MMLU-Pro、MMMU、GPQA 以及 AIME2024/2025等任務上,該模型的表現令人驚歎,ChemBench 分數達到76.47,MatBench 分數爲61.55,而 ProteinLMBench 則是58.47。這些成績不僅證明了 Intern-S1-mini 的強大實力,更表明它在文本、圖像和視頻輸入方面的兼容性。
有趣的是,Intern-S1-mini 默認開啓了 “思考模式”,用戶可以通過簡單的開關命令(enable_thinking)來切換。這種設計讓模型的交互性更強,爲用戶帶來了更靈活的使用體驗。
在科技飛速發展的今天,Intern-S1-mini 的發佈無疑爲研究人員和開發者們提供了一個新的工具,助力他們在多模態推理領域實現更多創新與突破。無論是在基礎研究還是實際應用中,這一模型都將是一個值得關注的焦點。
