AR 眼鏡剛問“對面是什麼樓”,後端的 MLLM-SC 框架就在 10 ms 內畫出一張“語義注意力熱圖”:建築輪廓被標成深紅,優先級調到最高,其他背景一律降碼率。高維多模態數據不再“平均用力”,任務相關的像素、語音、座標被語義引擎拎出來走“快車道”,無關內容自動降檔,6G 空口瞬間多出 30 % 可用帶寬。


這套“設備—邊緣”協同系統把多模態大模型塞進邊緣服務器,當用戶輸入圖像+語音+任務請求時,提示工程+上下文學習先拆意圖,再驅動雙路徑語義編碼器——重要特徵走高質量路徑,次要信息進低分辨率通道;即便信道突然掉檔,關鍵區域依舊 1080 P 保真。接收端用 VAE 做粗重建、條件擴散模型做精修,還能按終端算力動態切換“高清重建”或“AI 補幀”模式,弱網環境也能實時合成高質量全息畫面。


實驗室實測裏,AR 導航、沉浸式會議、車聯網三維地圖同時跑在 500 MHz 毫米波小區:採用 MLLM-SC 後,平均端到端時延從 28 ms 降到 18 ms,塊錯誤率下降 42 %。團隊下一步把強化學習塞進語義決策,讓多智能體在協同駕駛、城市級元宇宙等場景中“邊通信邊策略優化”,目標是把 6G 的“體驗密度”再提升一個量級。