新加坡人工智能计划AISG发布新一代大语言模型Qwen-Sea-Lion-v4,底层由Meta Llama全面切换为阿里巴巴“通义千问”Qwen3-32B,并在东南亚语言综合评估基准(Sea-Helm)夺得<2000亿参数开源榜单第一名。
切换原因
- 语言适配:Llama对印尼语、泰语、马来语等低资源语言表现不佳;Qwen3预训练覆盖119种语言/方言,含36万亿token,原生多语架构降低后续训练门槛
- 分词优化:新模型放弃西方常用“句子分词器”,采用字节对编码(BPE),可无空格切分泰语、缅甸语字符,翻译准确率与推理速度显著提升
- 算力友好:量化后模型可在32GB内存消费级笔记本运行,契合东南亚大量中小企业算力稀缺场景
训练数据
AISG贡献1000亿东南亚语言token,内容浓度13%,为Llama2的26倍;阿里运用“高级后训练”注入区域知识,使模型更好理解新加坡式英语、马来式英语等混用语言。
性能结果
Sea-Helm榜单显示,Qwen-Sea-Lion-v4在印尼语、越南语、泰语、马来语任务上平均领先原Llama基线8.4%,文档级推理与跨语言摘要指标均排名第一。
开源与落地
模型已在Hugging Face、AISG官网免费开放下载,提供4/8位量化版本;新加坡政府将其纳入2023年启动的7000万新元国家级多模态计划,预计2026年在教育、医疗、金融等场景大规模部署。
