艾倫人工智能研究所(AI2)近日發佈了突破性的全開源網絡代理
核心技術:像人類一樣“看”網頁
MolmoWeb 的運作邏輯非常直觀:它捕獲當前瀏覽器窗口的截圖,通過視覺分析決定下一步操作(如點擊、滾動、翻頁),然後執行並重復。這種“所見即所得”的模式使其比傳統代理更具魯棒性,因爲網頁的視覺佈局通常比底層代碼更穩定,且其決策過程對人類用戶而言完全透明、可解釋。

性能飛躍:小模型擊敗巨頭
儘管 MolmoWeb 的參數規模僅爲4B 和8B,但在性能表現上卻展現出“以小博大”的實力:
榜單領跑: 在 WebVoyager 測試中,8B 版本的得分高達 78.2%,不僅在開源模型中名列前茅,更逼近了 OpenAI 的專有模型 o3(79.3%)。
潛力巨大: 研究發現,通過多次運行任務並篩選最優結果,其成功率可進一步躍升至 94.7%。
定位精準: 在 UI 元素定位基準測試中,它甚至超越了 Anthropic 的 Claude3.7。
數據支撐:史上最大的開放數據集
AI2此次不僅開源了模型權重,還貢獻了名爲 MolmoWebMix 的龐大數據集。該數據集包含:
由人類志願者完成的 3.6萬次真實瀏覽任務。
超過 220萬個 屏幕截圖-問答對。
通過 GPT-4o 驗證的自動化合成數據。實驗證明,合成數據在引導智能體尋找“最優路徑”方面甚至優於人類軌跡。

開源精神與未來挑戰
目前,MolmoWeb 已在
