谷歌宣佈在全球超過200個國家和地區正式推出“Search Live”功能。該項升級標誌着移動搜索從傳統的文本/圖像檢索全面轉向實時多模態交互,用戶現可通過手機攝像頭與語音指令,在Android及iOS端的Google應用或Google Lens中與現實環境進行實時AI對話。

Search Live的核心動力源自全新的Gemini3.1Flash Live模型。作爲一種原生多語言音頻與語音大模型,該模型顯著提升了對話的自然度與響應速度。在應用場景上,用戶只需將攝像頭對準物體並提問——如複雜的傢俱組裝或動植物識別——系統即可同步提供語音解答及相關網頁鏈接,實現了物理世界與數字信息流的無縫對接。

此舉被視爲谷歌應對AI搜索競爭壓力的關鍵戰略動作。當前行業內,諸如Luma AI推出的Uni-1模型正試圖挑戰谷歌在圖像處理領域的地位,而OpenAI也計劃通過整合ChatGPT與瀏覽器功能打造超級應用。谷歌通過全球化部署Search Live,利用Gemini3.1Flash Live的輕量化與高響應特性,築牢了其在移動端入口的防禦壁壘。
這一功能的全面普及,預示着AI助手正從“被動檢索工具”進化爲“主動感知夥伴”。通過將計算機視覺與實時語音處理深度融合,谷歌正在重新定義信息獲取的邊界,推動搜索行業邁向空間智能與多模態交互的新階段。
