Google DeepMindは、正式にGemini3.1Flash-Liteのプレビュー版をリリースしました。これは、Gemini3シリーズの中で最も高速でコストパフォーマンスの高いモデルとして登場しました。Gemini2.5Flash-Liteのアップグレード版であるこの新モデルは、1秒間に360以上のtokenを出力し、平均応答時間が5.1秒という性能を維持しつつ、知能レベルにおいて顕著な進化を遂げました。Artificial Analysisのインテリジェンス指数監視によると、このモデルのスコアは前バージョンから12ポイント上昇して34ポイントとなり、Arena.aiのランキングでは1432のEloスコアを記録し、人間の好みにおいて強力な競争力を示しています。

gemini

マルチモーダルと科学的推論などの主要な側面において、Gemini3.1Flash-Liteの性能は特に優れています。GPQA Diamondテストでは86.9%の高得点を達成し、MMMU-Proベンチマークテストでは76.8%の正確率を記録し、Claude Opus4.6やKimi K2.5などの大型モデルをすでに上回っています。また、このモデルは開発者が「思考」の深さをカスタマイズできる機能を備えており、単純な自動翻訳から複雑なUI構築に至るまで多様なシナリオに柔軟に対応できます。

QQ20260304-091509.png

しかし、性能と速度の両方の進化には、明確なコストの変更が伴います。Gemini3.1Flash-Liteの100万トークンあたりの入力価格は0.25ドルに引き上げられ、出力価格は前バージョンの0.40ドルから大幅に1.50ドルに上がったため、約3倍の増加となりました。

この価格戦略は、現在のモデル製造業者が急速な推論と高精度な論理のバランスを追求する際のコスト上の圧力を反映しています。このモデルがGoogle AI StudioおよびVertex AIでテスト版として公開されたことにより、軽量モデル市場は単なる「低価格競争」から、「高性能な論理の普及」への新たな段階へと移行しています。