Meta AI發佈Segment Anything系列最新模型SAM3D,提供SAM3D Objects與SAM3D Body兩套權重:前者面向通用物體/場景,後者專注人像重建,均只需單張2D照片即可輸出帶紋理、材質與幾何一致性的3D資產,並在真實世界圖像上顯著優於現有NeRF與Gaussian Splatting方案。

QQ20251120-105802.jpg

SAM3D核心採用“空間位置-語義”聯合編碼,爲每個像素預測3D座標與表面法向,使模型具備物理正確性,可直接用於AR/VR、機器人及影視後期。Meta同步開源權重、推理代碼及評測基準,並在Facebook Marketplace上線“View in Room”功能,用戶可把商品3D模型投射至自家房間預覽。

官方測試顯示,SAM3D Objects在公開數據集上Chamfer Distance降低28%,法向一致性提升19%;SAM3D Body在AGORA-3D基準的MPJPE指標優於現有最佳單圖方法14%,並支持一鍵綁定Mixamo骨架驅動。

Meta透露,模型已集成至Quest3與Horizon Worlds創作工具,開發者可通過Edits與Vibes應用調用API,按量計費0.02美元/模型,2026年Q1將發佈實時手機端推理SDK。

項目地址:https://ai.meta.com/blog/sam-3d/