騰訊混元今日宣佈正式開源其翻譯模型1.5版本。本次更新共包含兩個不同尺寸的模型:Tencent-HY-MT1.5-1.8BTencent-HY-MT1.5-7B,旨在通過極致的效率與領先的翻譯質量,重新定義端雲協同的翻譯體驗。

image.png

核心亮點:端側部署與卓越性能

本次發佈的 1.8B 模型 表現尤爲亮眼。作爲一款面向手機等消費級設備設計的輕量化模型,它在經過量化處理後,僅需 1GB 內存 即可實現離線流暢運行。

  • 極致速度:處理50個 tokens 的平均耗時僅爲 0.18秒,遠快於主流商用翻譯 API 的0.4秒。

  • 跨級表現:在 FLORES-200等權威測試集中,其效果達到了 Gemini-3.0-Pro 等超大尺寸閉源模型的90分位水平,全面超越了中等尺寸開源模型。

image.png

全面覆蓋:從主流語種到方言民漢

混元翻譯模型1.5支持包括中、英、日、法等 33個全球語種 的互譯,並特別加強了對捷克語、愛沙尼亞語、冰島語等小語種的支持。此外,模型還涵蓋了 5種國內民漢語言及方言,極大拓寬了 AI 翻譯的應用邊界。

功能進化:更具實操性的翻譯體驗

針對實際應用場景,1.5版本在三個維度進行了重磅升級:

  1. 自定義術語庫:用戶可針對醫學、法律、金融等專業領域上傳術語表,確保專業詞彙翻譯的一致性。

  2. 上下文理解:具備先進的長文本對話理解能力,能基於前文語境優化後續結果,避免語義斷裂。

  3. 格式保持能力:通過精準的指令遵循,模型可以在翻譯後完美保持原始文本(如網頁、代碼、Markdown)的格式。

技術突破:大模型引導小模型

HY-MT1.5-1.8B 之所以能以小博大,得益於騰訊採用的 On-Policy Distillation(大尺寸模型蒸餾) 策略。由7B 尺寸的“老師”模型實時引導“學生”模型,幫助其從預測偏移中學習,而非單純死記硬背答案,從而顯著提升了小模型的邏輯與翻譯能力。

開發者生態:多平臺全面支持

目前,騰訊混元翻譯模型1.5均已在騰訊混元官網上線,並在GithubHuggingFace開源社區開放下載。模型已適配 Arm、高通、Intel 及沐曦等主流計算平臺。

從騰訊會議到企業微信,騰訊混元翻譯技術已在內部多個高併發場景落地。隨着1.5版本的開源,騰訊正進一步推動高質量 AI 翻譯技術走向普惠,爲全球開發者提供更具性價比的翻譯方案。