最近、米国のスタートアップ企業であるArcee AIは、競争の激しいオープンソースAI分野でアメリカの地位を再定義するための新しいシリーズのTrinityモデルを発表しました。現在主流のオープンソース大規模言語モデル(LLM)と比較して、これらのモデルはすべてアメリカで訓練されており、オープンウェイトの混合エキスパート(MoE)アーキテクチャが採用されています。

Trinityシリーズには現在、Trinity MiniとTrinity Nano Previewの2つのモデルが含まれており、ユーザーはアルヒの新サイトchat.arcee.aiで体験できます。開発者はHugging Faceプラットフォームでこの2つのモデルのコードを無料でダウンロードし、修正やファインチューニングを行うことができます。すべてのコンテンツは企業に優しいApache2.0ライセンスで提供されています。Trinity Miniモデルのパラメータ数は260億で、高効率な推論能力を持ち、Trinity Nanoは実験的なチャットモデルで、パラメータ数は60億で、より強力なカスタマイズ可能な会話体験を提供することを目的としています。
これらの2つのモデルは、アルヒ社が最新に開発した注目優先混合エキスパート(AFMoE)アーキテクチャを採用しています。このアーキテクチャは、スパースエキスパートルーティングと強化された注目メカニズムを組み合わせて設計され、モデルの推論能力および長文処理効率を向上させます。従来のMoEモデルと比較して、AFMoEはエキスパートの回答を選択および統合する方法がより滑らかであり、モデルが複雑な質問を理解し応答する際により柔軟に動作します。
Arcee AIのCTOであるルーカス・アトキンズ氏は、ソーシャルメディアで、「彼らの目標は、企業や開発者が実際に所有できる、完全に訓練されたオープンソースモデルの家族を提供することである」と述べました。会社の次のTrinity Largeモデルは現在トレーニング中で、2026年1月にリリースされる予定です。その際、アメリカのオープンソースAI分野における競争力をさらに強化するでしょう。
DataologyAIというデータプロデューサーのスタートアップ企業との提携を通じて、Arceeはトレーニングデータの品質を確保し、一般的なノイズやバイアスの問題を回避しました。これにより、モデルのトレーニングに堅牢な基盤を築きました。また、ArceeのインフラストラクチャーのパートナーであるPrime Intellectも、モデルトレーニングのために強力な技術的サポートを提供しており、トレーニングプロセスの効率性と透明性を確保しています。
重要なポイント:
- 🧠 Arceeが公開したTrinityシリーズのモデルは、アメリカで完全にトレーニングされ、オープンソースAIの構造を再構築することを目的としています。
- ⚙️ Trinity MiniとNanoモデルは、推論能力と長文処理効率を向上させる革新的なAFMoEアーキテクチャを採用しています。
- 📈 会社は2026年により大規模なTrinity Largeモデルをリリースする予定で、オープンソースAI分野におけるアメリカのイノベーションを引き続き推進します。
