新加坡人工智能計劃AISG發佈新一代大語言模型Qwen-Sea-Lion-v4,底層由Meta Llama全面切換爲阿里巴巴“通義千問”Qwen3-32B,並在東南亞語言綜合評估基準(Sea-Helm)奪得<2000億參數開源榜單第一名。
切換原因
- 語言適配:Llama對印尼語、泰語、馬來語等低資源語言表現不佳;Qwen3預訓練覆蓋119種語言/方言,含36萬億token,原生多語架構降低後續訓練門檻
- 分詞優化:新模型放棄西方常用“句子分詞器”,採用字節對編碼(BPE),可無空格切分泰語、緬甸語字符,翻譯準確率與推理速度顯著提升
- 算力友好:量化後模型可在32GB內存消費級筆記本運行,契合東南亞大量中小企業算力稀缺場景
訓練數據
AISG貢獻1000億東南亞語言token,內容濃度13%,爲Llama2的26倍;阿里運用“高級後訓練”注入區域知識,使模型更好理解新加坡式英語、馬來式英語等混用語言。
性能結果
Sea-Helm榜單顯示,Qwen-Sea-Lion-v4在印尼語、越南語、泰語、馬來語任務上平均領先原Llama基線8.4%,文檔級推理與跨語言摘要指標均排名第一。
開源與落地
模型已在Hugging Face、AISG官網免費開放下載,提供4/8位量化版本;新加坡政府將其納入2023年啓動的7000萬新元國家級多模態計劃,預計2026年在教育、醫療、金融等場景大規模部署。
