阿里雲百鍊平臺近日宣佈上線了Qwen2.5-Turbo百萬長文本模型,Qwen2.5-Turbo模型由通義千問團隊開發,支持處理高達100萬tokens的超長上下文,相當於100萬個英文單詞或150萬個漢字。

這一新版本的模型在長文本檢索任務中的準確率達到100%,並在長文本評測集RULER上獲得93.1分,超越了GPT-4。在LV-Eval、LongBench-Chat等接近真實場景的長文本任務中,Qwen2.5-Turbo在多數維度上超越了GPT-4o-mini。在短文本基準測試中,Qwen2.5-Turbo的表現也非常出色,顯著超越了之前上下文長度爲1M tokens的開源模型

微信截圖_20241121082702.png

Qwen2.5-Turbo模型的應用場景廣泛,包括長篇小說深入理解、大規模代碼助手、多篇論文閱讀等,能夠一次性處理10本長篇小說、150小時的演講稿或3萬行代碼。在推理速度方面,通義千問團隊通過稀疏注意力機制將計算量壓縮了約12.5倍,將處理1M tokens上下文的首字返回時間從4.9分鐘降低到68秒,實現了4.3倍的速度提升。

阿里雲百鍊平臺爲所有用戶提供了直接調用Qwen2.5-Turbo API的能力,並限時贈送1000萬tokens額度。後續使用百萬tokens的成本僅爲0.3元。

目前,阿里雲百鍊平臺已上線包括Qwen、Llama、ChatGLM在內的超200款國內外主流開源和閉源大模型,支持用戶直接調用、訓練微調或打造RAG應用。