DeepSeek R1に続く阿里巴巴クラウド通義千問チームは、最新のオープンソースモデルQwen2.5-1Mを発表し、業界の注目を集めています。

今回発表されたQwen2.5-1Mシリーズには、Qwen2.5-7B-Instruct-1MとQwen2.5-14B-Instruct-1Mの2つのオープンソースモデルが含まれています。これは、通義千問が初めて百万トークンのコンテキスト長をネイティブサポートするモデルを発表したもので、推論速度も大幅に向上しています。

阿里巴巴クラウド、通義千問

Qwen2.5-1Mの最大の特長は、百万トークンの超長コンテキスト処理能力をネイティブサポートしている点です。これにより、書籍、長編レポート、法律文書などの超長文書を簡単に処理でき、面倒な分割処理が不要になります。同時に、より長く、より深い対話をサポートし、長い会話履歴を記憶することで、より一貫性があり自然なインタラクション体験を実現します。さらに、コード理解、複雑な推論、複数回にわたる対話など、複雑なタスクの理解においても、より強力な能力を発揮します。

百万トークンのコンテキスト長という驚くべき特長に加え、Qwen2.5-1Mは、もう一つの大きな進歩、すなわち驚異的な速度の推論フレームワークを実現しました!通義千問チームは、vLLMベースの推論フレームワークを完全にオープンソース化し、スパースアテンションメカニズムを統合しました。この革新的なフレームワークにより、Qwen2.5-1Mは百万トークンの入力処理において、速度が3~7倍向上しました!これは、ユーザーが超長コンテキストモデルをより効率的に使用でき、実際のアプリケーションシナリオにおける効率と体験を大幅に向上させることを意味します。