マイクロソフトのAI部門は木曜日に、独自開発した最初のAIモデルとして:MAI-Voice-1AI および MAI-1-preview をリリースしました。この取り組みは、マイクロソフトが自社開発のAIモデル分野で重要な一歩を踏み出したことを示しており、外部モデルへの依存を減らすだけでなく、将来的なCopilot製品の基盤となることが期待されています。

MAI-Voice-1:高速音声生成の新たな突破

MAI-Voice-1は音声生成に特化したモデルであり、最大の特徴は効率性と低コストです。マイクロソフトによると、このモデルは1つのGPUだけで、1分間の音声を1秒未満で生成できます。現在、このモデルはマイクロソフトの一部の既存機能に応用されており、例えばCopilot DailyというAIパーソナリティがニュースの見出しをポッドキャストスタイルで説明する機能に使われています。

人工知能の脳 大規模モデル (2)

ユーザーは今やCopilot LabsでMAI-Voice-1を体験でき、テキストを入力し、音声やスタイルを調整することで、その強力な音声生成能力を感じることができます。

MAI-1-preview:Copilotの未来の形

同時にリリースされたMAI-1-previewモデルは、約15,000枚のNvidia H100 GPUでトレーニングされているとされています。このモデルは、ユーザーに指示に従い、日常的な質問に有用な回答を与えることができるAI体験を提供することを目的としています。

マイクロソフトのAI部門長であるムスタファ・スレイマン氏は、マイクロソフト内のAIモデルは消費者向けユースケースに焦点を当て、広告や消費者データの強みを活かして、本格的な消費者向けAIパートナーを構築することを目指していると述べました。将来的には、MAI-1-previewはCopilot AIアシスタントに部分的に使用され、現在依存しているOpenAIの大規模言語モデルを補完または置き換えることになる予定です。また、このモデルはAIベンチマークプラットフォームLMArenaで公開テストも行われています。

マイクロソフトのAI部門はブログで、彼らの目標はこれにとどまらず、異なるユーザーの意図やユースケースに対応する専用モデルの一連の協調運用を通じて、より大きな価値を引き出すことであると述べています。