世界中のオープンソースAIコミュニティは大きな節目を迎えた。上海人工知能研究所は正式に、そしてオープンソースとして、テラパラメータ(1兆)規模の科学マルチモーダル大規模モデル「Shu Shen Intern-S1-Pro」を発表した。このモデルは革新的な「通専融合」技術アーキテクチャSAGEに基づいて構築されており、オープンソースコミュニティにおけるパラメータ規模の記録を更新し、いくつかの主要な科学的能力において飛躍的な進歩を遂げた。

現在、世界中で最も規模の大きな科学マルチモーダルモデルであるIntern-S1-Proは、総合的な学問評価においてAI4S(AI for Science)分野での国際的リードレベルを維持している。その複雑な数理論理推論能力はオリンピック金メダルレベルに達しており、実際の研究プロセスに向けたインテリジェントエージェントタスクにおいても、オープンソースモデルの中でも最上位の強さを示している。
技術的な面では、Intern-S1-Proは混合エキスパートアーキテクチャ(MoE)を採用しており、総パラメータ数は1T(1兆)に達する。効率的なルーティング機構により、一度の呼び出しで22Bのパラメータのみを活性化して高品質な出力を生成できる。モデルが微視的な信号と巨視的な物理法則を統一的に理解する「物理的直感」を持つためには、研究チームはフーリエ位置符号化を導入し、時系列符号化器を再構築し、超大規模なMoEモデルトレーニングにおける安定性と計算効率の問題を解決した。
注目すべきは、Intern-S1-Proの登場が、独自のモデルアーキテクチャから国内の計算基盤技術への完全なチェーンの検証を示した点である。現在、このモデルはGitHubやHuggingFaceなどのプラットフォームで全面的にオープンソースされ、オンライン体験が提供されており、オープンで共有される科学研究インフラストラクチャの構築に堅固な基盤を提供している。
オンライン体験リンク:https://chat.intern-ai.org.cn/
GitHub リンク:https://github.com/InternLM/Intern-S1
HuggingFace リンク:https://huggingface.co/internlm/Intern-S1-Pro
ポイント:
🏆 世界最大規模のオープンソース:Intern-S1-Proは1T(1兆)のパラメータを持ち、現在世界最大のオープンソースコミュニティにおける科学マルチモーダル大規模モデルである。
🧬 優れた科学的論理能力:モデルは数理推論においてオリンピック金メダルレベルに達しており、高い難易度の総合的な学問評価において、AI4S分野の国際的なリードレベルにある。
💻 自主技術の突破:このモデルはSAGEアーキテクチャおよび国内の計算基盤に基づいて構築され、MoE技術によって非常に高い計算効率とトレーニングの安定性を実現した。
