全球開源AI社區迎來重磅里程碑。上海人工智能實驗室正式發佈並開源了萬億參數級別的科學多模態大模型——書生 Intern-S1-Pro。該模型基於創新的“通專融合”技術架構 SAGE 打造,不僅刷新了開源社區的參數規模紀錄,更在多項核心科學能力上實現了跨越式突破。

作爲目前全球開源領域規模最大的科學多模態模型,Intern-S1-Pro 的綜合學科評測已穩居 AI4S(AI for Science)領域的國際領先水平。其表現出的複雜數理邏輯推理能力已達到奧賽金牌標準,同時在面向真實科研流程的智能體任務中,展現出了位居開源模型第一梯隊的強大實力。
在技術底層,Intern-S1-Pro 採用了混合專家架構(MoE),總參數量高達1T(萬億),通過高效的路由機制,每次調用僅需激活22B 參數即可完成高質量輸出。爲了讓模型擁有統一理解微觀信號與宏觀物理規律的“物理直覺”,研發團隊引入了傅里葉位置編碼並重構了時序編碼器,攻克了超大規模 MoE 模型訓練中的穩定性與算力效率難題。
值得關注的是,Intern-S1-Pro 的誕生驗證了從原創模型架構到國產算力基座自主技術的完整鏈路。目前,該模型已在 GitHub、HuggingFace 等平臺全面開源,並提供在線體驗,爲構建開放共享的科學研究基礎設施奠定了堅實底座。
在線體驗鏈接:https://chat.intern-ai.org.cn/
GitHub 鏈接:https://github.com/InternLM/Intern-S1
HuggingFace 鏈接:https://huggingface.co/internlm/Intern-S1-Pro
劃重點:
🏆 全球開源規模之最:Intern-S1-Pro 擁有1T(萬億)參數,是目前全球開源社區參數規模最大的科學多模態大模型。
🧬 頂尖科研邏輯能力:模型在數理推理上達奧賽金牌水平,在高難度綜合學科評測中處於 AI4S 領域國際領先地位。
💻 自主技術鏈路突破:該模型基於 SAGE 架構及國產算力基座打造,通過 MoE 技術實現了極高的算力效率與訓練穩定性。
