谷歌宣布在全球超过200个国家和地区正式推出“Search Live”功能。该项升级标志着移动搜索从传统的文本/图像检索全面转向实时多模态交互,用户现可通过手机摄像头与语音指令,在Android及iOS端的Google应用或Google Lens中与现实环境进行实时AI对话。

Search Live的核心动力源自全新的Gemini3.1Flash Live模型。作为一种原生多语言音频与语音大模型,该模型显著提升了对话的自然度与响应速度。在应用场景上,用户只需将摄像头对准物体并提问——如复杂的家具组装或动植物识别——系统即可同步提供语音解答及相关网页链接,实现了物理世界与数字信息流的无缝对接。

此举被视为谷歌应对AI搜索竞争压力的关键战略动作。当前行业内,诸如Luma AI推出的Uni-1模型正试图挑战谷歌在图像处理领域的地位,而OpenAI也计划通过整合ChatGPT与浏览器功能打造超级应用。谷歌通过全球化部署Search Live,利用Gemini3.1Flash Live的轻量化与高响应特性,筑牢了其在移动端入口的防御壁垒。
这一功能的全面普及,预示着AI助手正从“被动检索工具”进化为“主动感知伙伴”。通过将计算机视觉与实时语音处理深度融合,谷歌正在重新定义信息获取的边界,推动搜索行业迈向空间智能与多模态交互的新阶段。
