翻譯軟件我們天天用,但背後的模型通常很大,往往需要連接雲端服務器才能運行。騰訊這次推出的 HY-MT1.5系列打破了這個限制,推出了兩個版本,滿足不同場景的需求:
1.8B 小尺寸版: 別看它體量小,它在性能上幾乎能和體量大得多的模型叫板。經過優化後,它只需要約1GB 的內存就能在手機等端側設備上流暢運行。翻譯50個漢字左右的句子,平均響應時間僅需 0.18秒。
7B 升級版: 它是之前獲得 WMT25冠軍系統的升級版,更擅長處理複雜的混合語言翻譯、專業術語解析以及特定的格式翻譯,主要面向服務器部署。

爲什麼它比以前更聰明?
爲了讓模型更懂人類的語言習慣,騰訊的研究團隊採用了“五步走”的訓練方法:
打好語言基礎: 先讓模型學習海量的多語言文本,掌握基本的語言規律。
專項訓練: 專門輸入大量的對譯數據,讓它從“會說話”變成“會翻譯”。
精雕細琢: 使用高質量的文檔數據進行微調,讓翻譯結果更地道。
名師出高徒(蒸餾): 讓7B 的大模型帶1.8B 的小模型,把大模型的“智慧”傳授給小模型,讓它體積雖小但大腦依然聰明。
人類評判: 最後引入人類的審美標準,針對準確度、流暢度和文化差異進行打分優化。
實測表現:超越部分主流大模型
在多項權威測試中,這套模型的表現非常亮眼:
在 WMT25等國際測試中,7B 版本的得分超過了 Gemini3.0Pro 以及許多專業的翻譯模型。
即便是在“普通話轉少數民族語言”這種冷門領域,它的表現依然拔尖。
1.8B 版本在人類真實測試中的評分,也超過了百度、谷歌、微軟等主流商業翻譯系統。
除了翻譯得準,HY-MT1.5還解決了一些實際使用中的痛點:
術語精準: 你可以告訴它特定的詞怎麼翻。比如“混元珠”必須翻成“Chaos Pearl”,它就不會自作聰明地翻成別的詞。
聯繫上下文: 比如單詞“pilot”,沒有上下文它可能翻成“飛行員”,但如果這段話是講美劇的,它能聰明地識別出這是指“試播集”。
格式不變: 如果你在翻譯一段帶有 HTML 標籤或特殊格式的代碼,它能在翻譯內容的同時,完美保留原來的標籤結構。
目前,騰訊已經將該模型的權重在
github:https://github.com/Tencent-Hunyuan/HY-MT
huggingface:https://huggingface.co/collections/tencent/hy-mt15
