2024年7月3日、上海人工知能研究所と商湯科技は、香港中文大学および復旦大学と共同で、次世代大規模言語モデル「書生・浦語2.5」(InternLM2.5)を正式に発表しました。

InternLM2.5-7Bモデルは既にオープンソース化されており、他の規模のモデルも順次オープンソース化される予定です。上海人工知能研究所は、引き続き無料の商用ライセンスを提供し、高品質のオープンソースモデルを通じてコミュニティのイノベーションを支援することを約束しています。

微信截图_20240708083247.png

このモデルは、以下の点で顕著な改善が見られます。

  1. 推論能力:InternLM2.5の推論能力は大幅に向上し、Llama3-70Bモデルを一部の指標で上回りました。特に数学評価セットMATHにおいては、性能が100%向上し、精度が60%に達し、GPT-4Turbo1106バージョンと同等になりました。

  2. 長文対応:最大100万トークンのコンテキストに対応しており、約120万文字の長文を処理できます。コンテキストの長さと合成データの増加により、長文書の理解とエージェントとのインタラクションが最適化されました。

  3. 自律的な計画とツール呼び出し:数百ものウェブページ情報を検索・統合する能力を備えています。MindSearchマルチエージェントフレームワークを通じて、人間の思考プロセスを模倣し、ネットワーク情報を効果的に統合します。

Githubリンク:https://github.com/InternLM/InternLM

モデルリンク:https://www.modelscope.cn/models/Shanghai_AI_Laboratory/internlm2_5-7b-chat

書生・浦語ホームページ:https://internlm.intern-ai.org.cn/