翻訳ソフトは毎日使いますが、その裏にあるモデルは通常非常に大きく、クラウドサーバーに接続して動作する必要があります。腾讯(テンセント)が今回公開した HY-MT1.5シリーズはこの制限を打ち破り、異なるシナリオに対応する2つのバージョンを提供しています:

  • 1.8B サイズの小さなバージョン: 体積は小さいですが、性能においてははるかに大きなモデルと肩を並べます。最適化された後、わずか約1GBのメモリでスマートフォンなどのエッジデバイスでスムーズに動作します。約50文字程度の文の翻訳には平均して0.18秒

  • 7B アップグレード版: これは以前WMT25で優勝したシステムのアップグレード版であり、複雑な混合言語の翻訳、専門用語の解析および特定のフォーマットの翻訳に特に長けています。主にサーバーへの展開向けです。

  • image.png

なぜこれほど賢くなったのか?

モデルを人間の言葉使いに合わせるために、テンセントの研究チームは「五段階の訓練方法」を採用しました:

  1. 言語の基礎を固める: まずモデルに大量の多言語テキストを学ばせ、基本的な言語ルールを理解させます。

  2. 専門的なトレーニング: 大量の対訳データを入力し、モデルを「話す」ことから「翻訳する」ことへと変えていきます。

  3. 細部の調整: 高品質なドキュメントデータを使って微調整を行い、翻訳結果をより自然にします。

  4. 大規模モデルによる指導(蒸留): 7Bサイズの大モデルが1.8Bサイズの小モデルを指導し、大モデルの知恵を小モデルに伝えます。これにより、体積は小さくても頭脳はしっかりしています。

  5. 人の審美眼: 最後に人の審美基準を取り入れ、正確性、流れの良さ、文化の違いを評価・最適化します。

実際の性能:一部の主要な大規模モデルを上回る

多くの権威あるテストにおいて、このモデルの性能は目立ちました:

  • WMT25などの国際テストでは、7BバージョンのスコアがGemini3.0Proや多くの専門的な翻訳モデルを上回りました。

  • 「中国語から少数民族言語への翻訳」というようなニッチな分野でも、優れたパフォーマンスを発揮しました。

  • 1.8Bバージョンは、人間が実際にテストした際の評価も、百度(バイドゥ)、グーグル、マイクロソフトなどの主要な商用翻訳システムを上回っています。

翻訳が正確であるだけでなく、HY-MT1.5はいくつかの現実的な使用上の問題も解決しています:

  • 専門用語の正確さ: 特定の単語の翻訳を指定できます。例えば、「混元珠」は「Chaos Pearl」と翻訳しなければならない場合、他の単語に勝手に変えることはありません。

  • 文脈を考慮する: たとえば、「pilot」という単語は文脈がないと「飛行士」と翻訳されるかもしれませんが、もし話しているのがアメリカのテレビドラマであれば、「試放送」を意味することがわかります。

  • フォーマットの保持: HTMLタグや特別なフォーマットを含むコードを翻訳する場合、翻訳内容を残しながら元のタグ構造を完全に保つことができます。

現在、テンセントはこのモデルの重みをGitHubHugging Faceでオープンソースとして公開しています。これにより、世界中の開発者がこの技術を使って自社アプリケーションの体験を向上させることができます。

github:https://github.com/Tencent-Hunyuan/HY-MT

huggingface:https://huggingface.co/collections/tencent/hy-mt15