騰訊的研究者們發現,大語言模型的性能會隨着實例化agent數量的增加而增強,無需複雜的多LLM agents協作框架。實驗結果顯示多個小LM集成可以超越較大LM的性能。論文探討了性能提升與問題難度之間的關係,並提出了逐步採樣和投票、分層採樣和投票兩種優化策略。
相關推薦
隱私不再是問題!WitNote—— 你的離線 AI 筆記助手
WitNote是一款完全離線的AI筆記工具,由獨立開發者推出,旨在解決用戶對在線AI工具隱私和訂閱費用的擔憂。它支持Windows和macOS平臺,允許用戶在本地使用大語言模型處理筆記,無需聯網,從而避免數據泄露和月費負擔。用戶只需下載並運行即可使用。
Dec 30, 2025
88.0k
1美元跑200個瀏覽器任務!開源瀏覽器操控神器BU-30B-A3B-Preview橫空出世
近日,開源項目BrowserUse發佈自研大語言模型BU-30B-A3B-Preview,被譽爲網頁代理領域新標杆。該模型採用混合專家(MoE)架構,總參數達300億,但推理時僅激活部分參數,兼顧強大性能與輕量化運行,顯著降低了AI瀏覽器操作的成本與門檻。
Dec 26, 2025
173.2k
日本數據科學家推出“零錯誤”編程語言 Sui,聲稱讓大模型寫代碼準確率達100%
日本數據科學家本田崇人推出全新編程語言Sui,其設計理念源自日本美學“粋”,追求極致精煉。該語言通過消除語法錯誤、用數字代替變量名、確保每行代碼獨立運行,旨在解決大模型生成代碼時常見的語法、命名混亂及上下文依賴問題,提升代碼生成質量。
Dec 16, 2025
178.1k
螞蟻開源 LLaDA2.0,業內首個100B 參數規模的擴散語言模型
螞蟻技術研究院發佈LLaDA2.0系列,包含16B和100B版本,其中100B版爲業內首個百億參數離散擴散大語言模型。該模型突破擴散模型規模化瓶頸,顯著提升生成質量與推理速度,爲領域發展提供新方向。
Dec 12, 2025
317.6k
阿里通義推出新型強化學習方法 SAPO,讓大語言模型更穩更強
阿里通義Qwen團隊推出Soft Adaptive Policy Optimization(SAPO),旨在解決大語言模型強化學習中策略優化不穩定的問題。相比傳統硬剪切方法,SAPO通過自適應調整更新幅度,避免過於嚴格限制,提升訓練穩定性和效率。
Dec 10, 2025
190.1k
