最近、テンセントはその混元翻訳モデル「Hunyuan-MT-7B」が正式にオープンソース化したことを発表しました。このモデルは国際的な機械翻訳コンテストで優れた成績を収め、30の第一位を獲得し、強力な翻訳能力を示しています。Hunyuan-MT-7B はパラメータ数がわずか7億の軽量翻訳モデルであり、33言語および5種類の民漢言語と方言の相互翻訳をサポートしており、包括的な翻訳能力を持っています。

image.png

一方で、テンセントは「Hunyuan-MT-Chimera-7B」という翻訳統合モデルもリリースしました。このモデルは、原文と複数の翻訳モデルが提供するさまざまな翻訳結果をもとに、より質の高い翻訳結果を生成することができます。DeepSeekなどの他のモデルとの接続もサポートしており、特に専門的な翻訳が必要なユーザーおよびシナリオに適しています。

従来の機械翻訳方式と比較して、大規模モデルに基づく翻訳技術は会話の背景や文脈をよりよく理解し、より正確で自然な翻訳結果を提供できます。Hunyuan-MT-7B の性能は非常に優れ、スラング、古詩、SNSでの略語など複雑なテキストを成功裏に翻訳し、実際的かつ正確な翻訳を実現しています。

image.png

先日終了した国際計算言語学協会(ACL)のWMT2025コンテストでは、Hunyuan-MT-7B は31言語の競技で30の第一位を獲得し、絶対的なリードを示しました。これらの言語には中国語、英語、日本語、チェコ語、マラディー語などの一般的な言語だけでなく、小規模言語も含まれています。このコンテストでは、モデルのパラメータ数に制限があるにもかかわらず、多くのパラメータ数が多いモデルを上回りました。

Hunyuan-MT-7B の優位性は翻訳効果だけでなく、計算効率や導入のしやすさも特徴です。大型モデルと比較して、このモデルは推論速度において優れているため、同じハードウェア条件下でもより多くの翻訳要求を処理できます。さらに、テンセント独自のAngelSlim大規模モデル圧縮ツールを活用することで、Hunyuan-MT-7B の推論性能は30%向上しています。

現在、テンセントの混元翻訳モデルは、テンセントミーティング、企業WeChat、QQブラウザなどの複数の業務で応用されており、ユーザー体験を向上させています。2023年にリリースされて以来、テンセントの混元は積極的にオープンソース化し、大規模モデル技術の共有と発展に貢献しています。今後もテンセントはさらなるモデルと技術の公開を通じて、コミュニティとともにオープンな大規模モデルエコシステムを構築していく予定です。

  • 体験アドレス:https://hunyuan.tencent.com/modelSquare/home/list(本文末尾から原文を参照)

  • Github: https://github.com/Tencent-Hunyuan/Hunyuan-MT/

  • HugginFace: https://huggingface.co/collections/tencent/hunyuan-mt-68b42f76d473f82798882597

ポイント:

🌟 Hunyuan-MT-7B モデルは国際コンテストで30の第1位を獲得し、翻訳力を示しています!  

⚙️ このモデルは33言語をサポートし、計算効率が高く、導入が簡単で、さまざまなシナリオに適しています!  

📥 現在オープンソース化されており、ユーザーは公式サイトやGithubなどのプラットフォームでダウンロードして体験可能です。技術の共有を推進しています!