今天凌晨,阿里巴巴通義千問團隊發佈了Qwen2系列開源模型。該系列模型包括5個尺寸的預訓練和指令微調模型:Qwen2-0.5B、Qwen2-1.5B、Qwen2-7B、Qwen2-57B-A14B以及Qwen2-72B。關鍵信息顯示,這些模型的參數數量和性能較前一代 Qwen1.5有顯著提升。

對於模型的多語言能力,Qwen2系列投入了大量精力增加數據集的數量和質量,覆蓋英語和中文以外的27種其他語言。經過對比測試,大型模型(70B + 參數)在自然語言理解、編碼、數學能力等方面表現出色,Qwen2-72B 模型更在性能和參數數量方面超越前一代。

Qwen2模型不僅在基礎語言模型評估中展現出強大的能力,還在指令調優模型評估中獲得令人矚目的成績。其多語言能力在 M-MMLU 和 MGSM 等基準測試中表現出衆,展現出 Qwen2指令調優模型的強大潛力。

此次發佈的 Qwen2系列模型標誌着人工智能技術的新高度,爲全球 AI 應用和商業化提供了更廣闊的可能性。展望未來,Qwen2將進一步擴展模型規模和多模式能力,加速推動開源 AI 領域的發展。

模型信息

Qwen2系列包含5種尺寸的基礎和指令調優型號,包括Qwen2-0.5B、Qwen2-1.5B、Qwen2-7B、Qwen2-57B-A14B、Qwen2-72B。我們在下表中說明了各型號的關鍵信息:

楷模Qwen2-0.5BQwen2-1.5BQwen2-7BQwen2-57B-A14BQwen2-72B
# 參數0.49億1.54億7.07B57.41B72.71B
# 非 Emb 參數0.35億1.31B5.98億56.32億70.21B
質量保證真的真的真的真的真的
領帶嵌入真的真的錯誤的錯誤的錯誤的
上下文長度3.2萬3.2萬128千64千128千

具體來說,之前在 Qwen1.5中,只有 Qwen1.5-32B 和 Qwen1.5-110B 採用了 Group Query Attention(GQA)。這次,我們針對所有模型大小都應用了 GQA,以便它們在模型推理中享受更快的速度和更少內存佔用的好處。對於小模型,我們更喜歡應用 tying embedding,因爲大型稀疏 embedding 佔了模型總參數的很大一部分。

在上下文長度方面,所有基礎語言模型均已在32K 個 token 的上下文長度數據上進行了預訓練,我們在 PPL 評估中觀察到高達128K 的令人滿意的外推能力。但是,對於指令調整模型,我們並不滿足於僅僅進行 PPL 評估;我們需要模型能夠正確理解長上下文並完成任務。在表中,我們列出了指令調整模型的上下文長度能力,這些能力是通過對 Needle in a Haystack任務的評估來評估的。值得注意的是,當使用 YARN 進行增強時,Qwen2-7B-Instruct 和 Qwen2-72B-Instruct 模型都表現出令人印象深刻的能力,可以處理高達128K 個 token 的上下文長度。

我們付出了巨大的努力來增加預訓練和指令調整數據集的數量和質量,這些數據集涵蓋了英語和中文以外的多種語言,以增強其多語言能力。儘管大型語言模型具有推廣到其他語言的固有能力,但我們明確強調在我們的訓練中加入了27種其他語言:

區域語言
西歐德語, 法語, 西班牙語, 葡萄牙語, 意大利語, 荷蘭語
東歐和中歐俄語、捷克語、波蘭語
中東阿拉伯語、波斯語、希伯來語、土耳其語
東亞日語、韓語
東南亞越南語、泰語、印尼語、馬來語、老撾語、緬甸語、宿務語、高棉語、他加祿語
南亞印地語、孟加拉語、烏爾都語

此外,我們投入了大量精力來解決多語言評估中經常出現的代碼轉換問題。因此,我們的模型處理這種現象的能力顯著提高。使用通常會引發跨語言代碼轉換的提示進行的評估證實,相關問題顯著減少。

表現

對比測試結果顯示,大規模模型(70B+參數)的性能相比Qwen1.5有大幅提升。本次測試以大規模模型Qwen2-72B爲中心。在基礎語言模型方面,我們對比了Qwen2-72B和當前最佳的開放模型在自然語言理解、知識獲取、編程能力、數學能力、多語言能力等能力方面的性能。得益於精心挑選的數據集和優化的訓練方法,Qwen2-72B的表現優於Llama-3-70B等領先模型,在參數數量較少的情況下,其性能甚至超過了上一代Qwen1.5-110B。

在進行大量大規模預訓練之後,我們進行後訓練,以進一步增強 Qwen 的智能,使其更接近人類。此過程進一步提高了模型在編碼、數學、推理、指令遵循、多語言理解等領域的能力。此外,它使模型的輸出與人類價值觀保持一致,確保其有用、誠實且無害。我們的後訓練階段採用可擴展訓練和最少人工註釋的原則設計。具體而言,我們研究如何通過各種自動對齊策略獲得高質量、可靠、多樣化和創造性的演示數據和偏好數據,例如數學的拒絕抽樣、編碼和指令遵循的執行反饋、創意寫作的反向翻譯、角色扮演的可擴展監督等。至於訓練,我們採用了監督微調、獎勵模型訓練和在線 DPO 訓練的組合。我們還採用了一種新穎的在線合併優化器來最大限度地減少對齊稅。這些共同努力大大提高了我們模型的能力和智能,如下表所示。

我們對 Qwen2-72B-Instruct 進行了全面評估,涵蓋了各個領域的16個基準測試。Qwen2-72B-Instruct 在獲得更好的能力和與人類價值觀保持一致之間取得了平衡。具體來說,Qwen2-72B-Instruct 在所有基準測試中都明顯優於 Qwen1.5-72B-Chat,並且與 Llama-3-70B-Instruct 相比也達到了具有競爭力的性能。

在較小的模型上,我們的 Qwen2模型也優於類似甚至更大尺寸的 SOTA 模型。與剛剛發佈的 SOTA 模型相比,Qwen2-7B-Instruct 仍然在各個基準測試中表現出優勢,特別是在編碼和中文相關指標上表現出色。

強調

編碼與數學

我們一直致力於提升 Qwen 的高級功能,特別是在編碼和數學方面。在編碼方面,我們成功整合了CodeQwen1.5的代碼訓練經驗和數據,從而使 Qwen2-72B-Instruct 在各種編程語言方面取得了顯著的改進。在數學方面,通過利用廣泛且高質量的數據集,Qwen2-72B-Instruct 在解決數學問題方面體現出了更強的能力。

長上下文理解

在 Qwen2中,所有指令調整模型都在32k 長度上下文中進行了訓練,並使用YARN或Dual Chunk Attention等技術推斷到更長的上下文長度。

下圖是我們在Needle in a Haystack上的測試結果,值得注意的是,Qwen2-72B-Instruct 能夠完美處理128k 上下文中的信息提取任務,再加上其與生俱來的強大性能,在資源充足的情況下,它成爲處理長文本任務的首選。

此外,值得注意的是該系列其他型號的令人印象深刻的功能:Qwen2-7B-Instruct 幾乎完美地處理長達128k 的上下文,Qwen2-57B-A14B-Instruct 管理長達64k 的上下文,而該系列中的兩個較小的型號支持32k 的上下文。

除了長上下文模型之外,我們還開源了一個代理解決方案,用於高效處理包含多達100萬個標記的文檔。有關更多詳細信息,請參閱我們關於此主題的專門博客文章。

安全與責任

下表展示了大型模型針對四類多語言不安全查詢(非法活動、欺詐、色情、隱私暴力)產生的有害響應占比。測試數據來自Jailbreak,並翻譯成多種語言進行評估。我們發現 Llama-3無法有效處理多語言提示,因此未將其納入比較範圍。通過顯著性檢驗(P_value),我們發現 Qwen2-72B-Instruct 模型在安全性方面的表現與 GPT-4相當,並且顯著優於 Mistral-8x22B 模型。

語言
非法活動

欺詐罪

色情

隱私暴力

GPT-4米斯特拉爾-8x22BQwen2-72B-指導GPT-4米斯特拉爾-8x22BQwen2-72B-指導GPT-4米斯特拉爾-8x22BQwen2-72B-指導GPT-4米斯特拉爾-8x22BQwen2-72B-指導
中文0%13%0%0%17%0%43%47%53%0%10%0%
英文0%7%0%0%23%0%37%67%63%0%27%3%
應收賬0%13%0%0%7%0%15%26%15%3%13%0%
西文0%7%0%3%0%0%48%64%50%3%7%3%
法國0%3%0%3%3%7%3%19%7%0%27%0%
0%4%0%3%8%4%17%29%10%0%26%4%
0%7%0%3%7%3%47%57%47%4%26%4%
0%10%0%7%23%3%13%17%10%13%7%7%
0%4%0%4%11%0%22%26%22%0%0%0%
平均的0%8%0%3%11%2%27%39%31%3%16%2%

使用 Qwen2進行開發

目前所有模型均已在 Hugging Face 和 ModelScope 中發佈,歡迎訪問模型卡查看詳細使用方法,並進一步瞭解每個模型的特性、性能等信息。

長期以來,有很多朋友支持着 Qwen 的發展,包括微調(Axolotl、Llama-Factory、Firefly、Swift、XTuner)、量化(AutoGPTQ、AutoAWQ、Neural Compressor)、部署(vLLM、SGL、SkyPilot、TensorRT-LLM、OpenVino、TGI)、API 平臺(Together、Fireworks、OpenRouter)、本地運行(MLX、Llama.cpp、Ollama、LM Studio)、Agent 和 RAG 框架(LlamaIndex、CrewAI、OpenDevin)、評估(LMSys、OpenCompass、Open LLM Leaderboard)、模型訓練(Dolphin、Openbuddy)等。關於如何將 Qwen2與第三方框架一起使用,請參考各自的文檔以及我們的官方文檔。

還有很多團隊和個人爲 Qwen 做出了貢獻,我們並沒有提及。我們衷心感謝他們的支持,並希望我們的合作能夠促進開源 AI 社區的研究和發展。

執照

這次,我們將模型的許可改爲不同的。Qwen2-72B 及其指令調優模型仍使用原有的 Qianwen License,而其他所有模型,包括 Qwen2-0.5B、Qwen2-1.5B、Qwen2-7B 和 Qwen2-57B-A14B,均轉而採用Apache2.0!我們相信,我們模型對社區的進一步開放可以加速 Qwen2在全球的應用和商業化。

Qwen2的下一步是什麼?

我們正在訓練更大的 Qwen2模型,以進一步探索模型擴展以及我們最近的數據擴展。此外,我們將 Qwen2語言模型擴展爲多模式,能夠理解視覺和音頻信息。在不久的將來,我們將繼續開源新模型以加速開源 AI。敬請期待!

引用

我們即將發佈 Qwen2的技術報告。歡迎引用!

@article{qwen2,

附錄

基礎語言模型評估

基礎模型的評測主要關注自然語言理解、一般問答、編碼、數學、科學知識、推理、多語言能力等模型性能。

評估的數據集包括:

英語任務:MMLU(5次)、MMLU-Pro(5次)、GPQA(5次)、Theorem QA(5次)、BBH(3次)、HellaSwag(10次)、Winogrande(5次)、TruthfulQA(0次)、ARC-C(25次)

編碼任務:EvalPlus(0-shot)(HumanEval、MBPP、HumanEval+、MBPP+)、MultiPL-E(0-shot)(Python、C++、JAVA、PHP、TypeScript、C#、Bash、JavaScript)

數學任務:GSM8K (4次)、MATH (4次)

中文任務:C-Eval(5-shot)、CMMLU (5-shot)

多語言任務:多考試(M3Exam5次、IndoMMLU3次、ruMMLU5次、mMMLU5次)、多理解(BELEBELE5次、XCOPA5次、XWinograd5次、XStoryCloze0次、PAWS-X5次)、多數學(MGSM8次)、多翻譯(Flores-1015次)

Qwen2-72B 性能

數據集DeepSeek-V2Mixtral-8x22B駱駝-3-70BQwen1.5-72BQwen1.5-110BQwen2-72B
建築學教育部教育部稠密稠密稠密稠密
#已激活參數21B39B70B72B110B72B
#參數236B140B70B72B110B72B
英語





莫爾曼·盧78.577.879.577.580.484.2
MMLU-專業版-49.552.845.849.455.6
質量保證-34.336.336.335.937.9
定理問答-35.932.329.334.943.1
百比黑78.978.981.065.574.882.4
希拉斯瓦格87.888.788.086.087.587.6
大窗戶84.885.085.383.083.585.1
ARC-C70.070.768.865.969.668.9
誠實問答42.251.045.659.649.654.8
編碼





人力評估45.746.348.246.354.364.6
馬來西亞公共服務局73.971.770.466.970.976.9
評估55.054.154.852.957.765.4
多種的44.446.746.341.852.759.6
數學





GSM8K79.283.783.079.585.489.5
數學43.641.742.534.149.651.1
中國人





C-評估81.754.665.284.189.191.0
加拿大蒙特利爾大學84.053.467.283.588.390.1
多種語言





多項考試67.563.570.066.475.676.6
多方理解77.077.779.978.278.280.7
多元數學58.862.967.161.764.476.0
多翻譯36.023.338.035.636.237.8

Qwen2-57B-A14B

數據集賈巴Mixtral-8x7B儀-1.5-34BQwen1.5-32BQwen2-57B-A14B
建築學教育部教育部稠密稠密教育部
#已激活參數12B12B34B32B14B
#參數52B47B34B32B57B
英語




莫爾曼·盧67.471.877.174.376.5
MMLU-專業版-41.048.344.043.0
質量保證-29.2-30.834.3
定理問答-23.2-28.833.5
百比黑45.450.376.466.867.0
希拉斯瓦格87.186.585.985.085.2
維諾格蘭德82.581.984.981.579.5
ARC-C64.466.065.663.664.1
誠實問答46.451.153.957.457.7
編碼




人力評估29.337.246.343.353.0
馬來西亞公共服務局-63.965.564.271.9
評估-46.451.950.457.2
多種的-39.039.538.549.8
數學




GSM8K59.962.582.776.880.7
數學-30.841.736.143.0
中國人




C-評估---83.587.7
加拿大蒙特利爾大學--84.882.388.5
多種語言




多項檢查-56.158.361.665.5
多方理解-70.773.976.577.0
多元數學-45.049.356.162.3
多翻譯-29.830.033.534.5

Qwen2-7B

數據集米斯特拉爾-7B傑瑪-7B駱駝-3-8BQwen1.5-7BQwen2-7B
# 參數7.2B8.5億8.0B7.7B7.6B
# 非 emb 參數7.0B7.8億7.0B6.5億6.5億
英語




莫爾曼·盧64.264.666.661.070.3
MMLU-專業版30.933.735.429.940.0
質量保證24.725.725.826.731.8
定理問答19.221.522.114.231.1
百比黑56.155.157.740.262.6
希拉斯瓦格83.282.282.178.580.7
維諾格蘭德78.479.077.471.377.0
ARC-C60.061.159.354.260.6
誠實問答42.244.844.051.154.2
編碼




人力評估29.337.233.536.051.2
馬來西亞公共服務局51.150.653.951.665.9
評估36.439.640.340.054.2
多種的29.429.722.628.146.3
數學




GSM8K52.246.456.062.579.9
數學13.124.320.520.344.2
中國人




C-評估47.443.649.574.183.2
加拿大蒙特利爾大學--50.873.183.9
多種語言




多項檢查47.142.752.347.759.2
多方理解63.358.368.667.672.0
多元數學26.339.136.337.357.5
多翻譯23.331.231.928.431.5

Qwen2-0.5B 和 Qwen2-1.5B

數據集披-2傑瑪-2B最低每千次展示費用Qwen1.5-1.8BQwen2-0.5BQwen2-1.5B
#非 Emb 參數2.5億2.0B2.4B1.3B0.35億1.3B
莫爾曼·盧52.742.353.546.845.456.5
MMLU-專業版-15.9--14.721.8
定理問答----8.915.0
人力評估47.622.050.020.122.031.1
馬來西亞公共服務局55.029.247.318.022.037.4
GSM8K57.217.753.838.436.558.5
數學3.511.810.210.110.721.7
百比黑43.435.236.924.228.437.2
希拉斯瓦格73.171.468.361.449.366.6
維諾格蘭德74.466.8-60.356.866.2
ARC-C61.148.5-37.931.543.9
誠實問答44.533.1-39.439.745.9
C-評估23.428.051.159.758.270.6
加拿大蒙特利爾大學24.2-51.157.855.170.3

指令調整模型評估

Qwen2-72B-指導

數據集駱駝-3-70B-指導Qwen1.5-72B-聊天Qwen2-72B-指導
英語


莫爾曼·盧82.075.682.3
MMLU-專業版56.251.764.4
質量保證41.939.442.4
定理問答42.528.844.4
MT-Bench8.958.619.12
競技場-困難41.136.148.1
IFEval(提示嚴格訪問)77.355.877.6
編碼


人力評估81.771.386.0
馬來西亞公共服務局82.371.980.2
多種的63.448.169.2
評估75.266.979.0
活碼測試29.317.935.7
數學


GSM8K93.082.791.1
數學50.442.559.7
中國人


C-評估61.676.183.8
AlignBench7.427.288.27

Qwen2-57B-A14B-指導

數據集Mixtral-8x7B-Instruct-v0.1Yi-1.5-34B-聊天Qwen1.5-32B-聊天Qwen2-57B-A14B-指導
建築學教育部稠密稠密教育部
#已激活參數12B34B32B14B
#參數47B34B32B57B
英語



莫爾曼·盧71.476.874.875.4
MMLU-專業版43.352.346.452.8
質量保證--30.834.3
定理問答--30.933.1
MT-Bench8.308.508.308.55
編碼



人力評估45.175.268.379.9
馬來西亞公共服務局59.574.667.970.9
多種的--50.766.4
評估48.5-63.671.6
活碼測試12.3-15.225.5
數學



GSM8K65.790.283.679.6
數學30.750.142.449.1
中國人



C-評估--76.780.5
AlignBench5.707.207.197.36

Qwen2-7B-指導

數據集駱駝-3-8B-指導Yi-1.5-9B-聊天GLM-4-9B-聊天Qwen1.5-7B-聊天Qwen2-7B-指導
英語




莫爾曼·盧68.469.572.459.570.5
MMLU-專業版41.0--29.144.1
質量保證34.2--27.825.3
定理問答23.0--14.125.3
MT-Bench8.058.208.357.608.41
編碼




人道主義62.266.571.846.379.9
馬來西亞公共服務局67.9--48.967.2
多種的48.5--27.259.1
評估60.9--44.870.3
活碼測試17.3--6.026.6
數學




GSM8K79.684.879.660.382.3
數學30.047.750.623.249.6
中國人




C-評估45.9-75.667.377.2
AlignBench6.206.907.016.207.21

Qwen2-0.5B-Instruct 和 Qwen2-1.5B-Instruct

數據集Qwen1.5-0.5B-聊天Qwen2-0.5B-指導Qwen1.5-1.8B-聊天Qwen2-1.5B-指導
莫爾曼·盧35.037.943.752.4
人力評估9.117.125.037.8
GSM8K11.340.135.361.6
C-評估37.245.255.363.8
IFEval(提示嚴格訪問)14.620.016.829.0

指令調整模型的多語言能力

我們在幾個跨語言開放基準以及人工評估中將 Qwen2指令調整模型與其他最近的 LLM 進行了比較。對於基準,我們在2個評估數據集上展示了結果:

  • Okapi 的M-MMLU:多語言常識評估(我們用 ar、de、es、fr、it、nl、ru、uk、vi、zh 的子集進行評估)
  • MGSM:對德語、英語、西班牙語、法語、日語、俄語、泰國語、中文和巴西語等語言進行數學評估

結果根據每個基準測試的語言平均得出,如下所示:

楷模M-MMLU(5次發射)MGSM(0次射擊,CoT)
專有法學碩士

GPT-4-061378.087.0
GPT-4-Turbo-040979.390.5
GPT-4o-051383.289.6
克勞德-3-作品-2024022980.191.0
克勞德-3-十四行詩-2024022971.085.6
開源法學碩士

command-r-plus-110b65.563.5
Qwen1.5-7B-聊天50.037.0
Qwen1.5-32B-聊天65.065.0
Qwen1.5-72B-聊天68.471.7
Qwen2-7B-指導60.057.0
Qwen2-57B-A14B-指導68.074.0
Qwen2-72B-指導78.086.6

對於人工評估,我們使用內部評估集將 Qwen2-72B-Instruct 與 GPT3.5、GPT4和 Claude-3-Opus 進行比較,其中包括10種語言 ar、es、fr、ko、th、vi、pt、id、ja 和 ru(分數範圍從1~5):

楷模應收賬西文法國ID平均的
克勞德-3-作品-202402294.154.314.234.234.013.984.094.403.854.254.15
GPT-4o-05133.554.264.164.404.094.143.894.393.724.324.09
GPT-4-Turbo-04093.444.084.194.244.113.843.864.093.684.273.98
Qwen2-72B-指導3.864.104.014.143.753.913.973.833.634.153.93
GPT-4-06133.553.923.943.873.833.953.553.773.063.633.71
GPT-3.5-Turbo-11062.524.073.472.373.382.903.373.562.753.243.16

按任務類型分組,結果如下:

楷模知識理解創建數學
克勞德-3-作品-202402293.644.454.423.81
GPT-4o-05133.764.354.453.53
GPT-4-Turbo-04093.424.294.353.58
Qwen2-72B-指導3.414.074.363.61
GPT-4-06133.424.094.103.32
GPT-3.5-Turbo-11063.373.673.892.97

這些結果證明了 Qwen2指令調整模型強大的多語言能力。