上海人工智能實驗室在2024年7月4日的WAIC科學前沿主論壇上推出了書生·浦語系列模型的新版本InternLM2.5。這個版本在複雜場景下的推理能力得到了全面增強,支持1M超長上下文,並能自主進行互聯網搜索及整合上百個網頁的信息。

InternLM2.5發佈了三種參數版本的模型,分別是1.8B、7B和20B,以適應不同應用場景和開發者需求。1.8B版本是超輕量級模型,20B版本則提供更強的綜合性能,支持更復雜的實用場景。所有這些模型都已開源,可以在書生·浦語系列大模型主頁、ModelScope主頁以及Hugging Face主頁上找到。

微信截圖_20240807133852.png

InternLM2.5在多個數據合成技術上進行了迭代,顯著提升了模型的推理能力,特別是在數學評測集MATH上的準確率達到了64.7%。此外,模型通過在預訓練階段進行高效訓練,提升了上下文長度的處理能力。

InternLM2.5系列模型還實現了與下游推理和微調框架的無縫對接,包括上海人工智能實驗室自主研發的XTuner微調框架和LMDeploy推理框架,以及其他社區中有廣泛用戶基礎的框架如vLLM、Ollama和llama.cpp。魔搭社區推出的SWIFT工具也支持InternLM2.5系列模型的推理、微調和部署。

這些模型的應用體驗包括多步複雜推理、多輪對話意圖的精準理解、靈活的格式控制操作以及遵循複雜指令的能力。提供了詳細的安裝和使用指南,方便開發者快速上手。

書生·浦語系列大模型主頁:

https://internlm.intern-ai.org.cn

ModelScope 主頁:

https://www.modelscope.cn/organization/Shanghai_AI_Laboratory?tab=model

Hugging Face 主頁:

https://huggingface.co/internlm

InternLM2.5開源鏈接:

https://github.com/InternLM/InternLM