上海人工知能研究所は、自社の大規模言語モデル「書生・浦語3.0」(InternLM3)の重要なバージョンアップを発表しました。研究所によると、新しいバージョンは洗練されたデータフレームワークにより、データ使用効率が大幅に向上し、思考密度の向上を実現したとのことです。

image.png

今回のアップグレードでリリースされたInternLM3-8B-Instructモデルは、わずか4TBのデータでトレーニングされました。公式発表によると、同規模のオープンソースモデルを上回る総合性能を達成し、トレーニングコストは75%以上削減されました。注目すべきは、このバージョンで初めて、汎用モデルにおいて日常会話と高度な思考能力の融合を実現し、多様な現実の使用シーンに効果的に対応できるようになったことです。

モデルの評価に関しては、研究チームは司南OpenCompassオープンソース評価フレームワークに基づき、統一された再現可能な方法を用いて評価を行いました。評価内容はCMMLU、GPQAなど10以上の権威ある評価セットを含み、推論、数学、プログラミング、指示遵守、長文生成、会話、総合的なパフォーマンスなど複数の次元を網羅しています。評価結果によると、書生・浦語3.0はほとんどの評価セットでトップスコアを獲得し、総合性能はGPT-4o-miniに非常に近いものとなっています。

上海人工知能研究所はまた、この新バージョンのモデルが、ブラウザで使用できる初のオープンソースの汎用会話モデルになったと発表しました。20ステップ以上のウェブページの遷移に対応し、深層的な情報の掘り起こしを実現します。

体験ページ:https://internlm-chat.intern-ai.org.cn。

重要なポイント:

🌟 書生・浦語3.0モデルは4TBのデータでトレーニングされ、同規模のオープンソースモデルを上回る総合性能を達成し、トレーニングコストを75%以上削減しました。

📊 複数の権威ある評価セットでトップスコアを獲得し、思考力と会話能力の融合が大幅に向上しました。

🌐 新モデルはブラウザで使用可能で、深層的な情報収集が可能になり、オープンソースコミュニティの注目を集めています。