オープンソース AI プロジェクト Jan チームは、近日、新しいマルチモーダル大規模モデル Jan-v2-VL-Max を正式にリリースしました。この30Bパラメータを持つモデルは、単に汎用性を追求するのではなく、「長期間実行タスク」というコアな課題に焦点を当てており、AI が複雑な自動化プロセスで「断片化」しやすい問題を解決することを目的としています。

このモデルの技術基盤は Qwen3-VL-30B-A3B-Thinking から来ており、複数ステップの操作における安定性を向上させるために、Jan チームは LoRA-based RLVR 技術を導入しました。この技術の巧みさは、複数ステップの実行中に発生する誤差の蓄積を効果的に抑えることで、長時間のタスク処理においてよく見られる「幻覚」現象を顕著に抑制できる点にあります。

image.png

実際の性能面では、Jan-v2-VL-Max は実行の安定性を測る「幻象減衰報酬」のベンチマークテストにおいて、Gemini2.5Pro や DeepSeek R1 などの有名モデルを上回りました。これは、Agent 自動化や UI インターフェース制御、および高い論理的一貫性が必要なタスクを処理する際に、より強力な信頼性を備えていることを意味しています。

現在、開発者や AI アイテム愛好家は、ウェブページを通じて直接体験することができ、または vLLM を使ってローカルでプライベート化された配備を行うこともできます。オフライン動作を重視し、プライバシーを尊重するJanエコシステムの一員として、新モデルの登場はローカルな AI 自動化を求めるユーザーにとってより強力なツールオプションを提供します。

huggingface:https://huggingface.co/janhq/Jan-v2-VL-max-FP8