全球开源AI社区迎来重磅里程碑。上海人工智能实验室正式发布并开源了万亿参数级别的科学多模态大模型——书生 Intern-S1-Pro。该模型基于创新的“通专融合”技术架构 SAGE 打造,不仅刷新了开源社区的参数规模纪录,更在多项核心科学能力上实现了跨越式突破。

作为目前全球开源领域规模最大的科学多模态模型,Intern-S1-Pro 的综合学科评测已稳居 AI4S(AI for Science)领域的国际领先水平。其表现出的复杂数理逻辑推理能力已达到奥赛金牌标准,同时在面向真实科研流程的智能体任务中,展现出了位居开源模型第一梯队的强大实力。
在技术底层,Intern-S1-Pro 采用了混合专家架构(MoE),总参数量高达1T(万亿),通过高效的路由机制,每次调用仅需激活22B 参数即可完成高质量输出。为了让模型拥有统一理解微观信号与宏观物理规律的“物理直觉”,研发团队引入了傅里叶位置编码并重构了时序编码器,攻克了超大规模 MoE 模型训练中的稳定性与算力效率难题。
值得关注的是,Intern-S1-Pro 的诞生验证了从原创模型架构到国产算力基座自主技术的完整链路。目前,该模型已在 GitHub、HuggingFace 等平台全面开源,并提供在线体验,为构建开放共享的科学研究基础设施奠定了坚实底座。
在线体验链接:https://chat.intern-ai.org.cn/
GitHub 链接:https://github.com/InternLM/Intern-S1
HuggingFace 链接:https://huggingface.co/internlm/Intern-S1-Pro
划重点:
🏆 全球开源规模之最:Intern-S1-Pro 拥有1T(万亿)参数,是目前全球开源社区参数规模最大的科学多模态大模型。
🧬 顶尖科研逻辑能力:模型在数理推理上达奥赛金牌水平,在高难度综合学科评测中处于 AI4S 领域国际领先地位。
💻 自主技术链路突破:该模型基于 SAGE 架构及国产算力基座打造,通过 MoE 技术实现了极高的算力效率与训练稳定性。
