本日、百度は武漢で開催されたCreate2025 AI開発者会議において、創業者である李彦宏氏が「モデルの世界、応用の天下」をテーマに約60分間の講演を行い、文心大模型4.5 TurboとX1 Turboを発表しました。さらに、DeepSeekモデルの百度エコシステムにおける展開状況と課題についても明らかにしました。

李彦宏氏は、百度傘下の文小言、百度検索、百度地図などの主要製品がDeepSeekのフルバージョンモデルを導入しており、インテリジェントカスタマーサービスや検索強化などの分野で効率が向上していると述べました。しかし同時に、DeepSeekにはまだ技術的な限界があると認めました。「このモデルはテキスト処理しかサポートしておらず、画像、音声、ビデオなどのマルチモーダルなコンテンツ生成はできません。百度スマートクラウドの企業顧客の6割以上がマルチモーダル機能を明確に求めている」と述べています。李彦宏氏は、ECライブコマースの例を挙げて、DeepSeekの幻覚率(誤った情報を生成すること)が高いため、金融や医療などハイリスク分野では直接適用が難しいと指摘しました。「ライブコマースで『1個買うと10個もらえる』といった誤った割引情報を配信すれば、事業者は制御できない損失を被ることになります」。さらに、応答速度が遅く、呼び出しコストが高いことも大規模な展開を妨げています。現在、中国市場の大多数の大規模言語モデルAPIの呼び出しコストはDeepSeekのフルバージョンよりも低く、応答速度も速いです。

DeepSeek大規模言語モデルアルゴリズムは、深く探求するAI人工知能

上記の課題に対応するため、百度は今回発表した文心大模型の2つのバージョンで、マルチモーダル、強力な推論、低コストという3つの方向性を打ち出しました。李彦宏氏は、マルチモーダル機能が次世代AIモデルの「入場券」になっていると強調し、「純粋なテキストモデルの市場シェアは急速に縮小し、企業は画像やテキスト、音声やビデオを同時に処理できる汎用的なモデルを必要とする」と述べました。性能面では、文心4.5 Turboの100万トークンあたりの入力価格は0.8元、出力価格は3.2元に引き下げられ、前世代モデルと比べて推論速度は2倍に向上し、コストは80%削減されました。X1 Turboの入力価格は1元、出力価格は4元で、性能向上と同時に価格をさらに50%削減し、中国語と英語の両言語に対応し、法律や医療など特定分野の推論最適化もサポートしています。

「コストはAI応用の爆発的普及における中心的な障害です。」李彦宏氏は、現在の開発者にとってAIアプリケーション構築における最大の障壁は高額な計算コストであり、技術革新の本質はしばしばコスト構造の突破にあると述べました。自動運転を例に挙げ、2015年にはライダーの単価が10万ドルを超えていたものが、現在は1000ドルレベルにまで低下し、L4レベルの技術普及を直接的に促進したと指摘しました。文心大模型の今回の値下げは、企業の導入障壁を下げることを目的としており、「中小企業でも大規模モデルを利用できるようにし、起業家が試行錯誤することを促し、最終的にあらゆる業界でAIネイティブアプリケーションを生み出す」ことを目指しています。

百度の技術チームによると、文心4.5 TurboとX1 Turboはパブリッククラウドとプライベート展開の両方に対応しており、オンデマンド呼び出しとカスタマイズされたトレーニングをサポートしています。市場分析では、百度は技術革新とコスト再構築を通じて、モデルの能力と商業化の展開のバランスを取ることを目指しており、マルチモーダル機能と価格優位性が企業顧客獲得の重要な要素になると考えられています。