グーグルは、Gemini3シリーズの最新メンバーであるGemini3.1Flash-Liteを正式に発表しました。このモデルは、同シリーズの中で最も高速でコストパフォーマンスに優れた軽量モデルであり、グーグルが「高コストパフォーマンスAI」の分野で再び力を入れていることを示しています。開発者にさらに最高のリアルタイム相互作用体験を提供することを目指しています。

性能面では、Gemini3.1Flash-Liteは驚くべき進化を遂げました。権威ある評価プラットフォームのデータによると、前世代の2.5Flashと比較して、新モデルの最初の文字応答速度(TTFT)は2.5倍に飛躍的に向上し、全体的な出力速度も45%向上しました。この極めて低い遅延特性により、即時のフィードバックが必要なチャットボットやリアルタイム処理のシナリオに最適です。

また、「速さ」に加え、このモデルは非常に高い「質価比」を持っています。グーグルは、競争力のある価格戦略を設定しました:入力トークン100万個あたり0.25ドルです。いくつかの主要な能力テストにおいて、3.1Flash-Liteは越級挑戦の実力を示しており、マルチモーダル理解と論理的推論の指標で同クラスの競品を全面的に上回り、一部のデータではより大きなサイズの前世代モデルをも超えています。

さらに、グーグルはAI StudioおよびVertex AIでこのモデルに革新的な「思考階層」機能を標準装備しています。開発者は業務ニーズに応じてモデルの「思考の深さ」を柔軟に調整できます。「単純な翻訳やコンテンツ監査」には最大限の効率を目指すことができますし、「複雑な論理シミュレーションやデータダッシュボードの生成」にはさらに深い推論の可能性を引き出すことも可能です。現在、このモデルはAPIを通じてプレビュー版ユーザーおよびエンタープライズプラットフォームに同時開放されており、世界中の開発者が低遅延のAIアプリケーションを構築するための新しいツールを提供しています。
重要なポイント:
⚡ 応答速度の飛躍的向上: 最初の文字応答が2.5倍速くなり、全体の速度が45%向上し、リアルタイム相互作用のシナリオに特化しています。
💰 極限的なコスト制御: 入力価格は100万トークンあたり0.25ドルまで低下し、大規模なAIの導入障壁を大幅に下げています。
🧠 思考深度の調整可能: 新たな「思考階層」調整機能が追加され、効率と深層的な推論の間で自由に切り替えることが可能です。
