4月2日,
核心突破:看得懂畫面,寫得出代碼
作爲原生多模態 Coding 基座,
原生多模態感知: 能夠深度理解圖片、視頻、設計稿及複雜的文檔版面,支持畫框、截圖、讀網頁等多種視覺工具調用。
超長視野: 上下文窗口大幅擴展至 200k,讓 Agent 能夠輕鬆處理龐大的工程項目或長篇技術文檔。
性能跨越: 在多模態 Coding、GUI Agent(圖形用戶界面智能體)等核心基準測試中,該模型以更小的尺寸取得了領先表現,且確保了純文本場景下的邏輯推理能力不退化。
典型場景:從“草圖”到“成品”的秒級跨越
前端復刻: 只需發送一張草圖、設計稿截圖或一段操作錄屏,模型即可理解佈局、配色與交互邏輯,生成完整可運行的前端工程,精準還原視覺細節。
GUI 自主探索: 結合
交互式編輯: 支持通過對話直接增刪模塊、修改文案或調整佈局,實現可視化的代碼迭代。
賦能“龍蝦”:AutoClaw 迎來視覺進化
在智譜自研的智能體
深度解讀圖表: 龍蝦現在能直接看懂 K 線走勢圖、估值區間圖及券商研報圖表。
高效產出: 支持四路數據源在60秒內並行採集,自動生成圖文並茂的專業分析報告或 PPT。
行業觀察:編程不再是“盲人摸象”
隨着
