學術頭條報道,來自清華大學、TAL AI Lab和智譜AI的研究者提出了20億參數語言模型MathGLM,用於探索大語言模型在數學推理方面的效率。該模型採用Transformer解碼器架構,在大規模算術數據集上訓練,數學運算能力得到顯著提升。實驗結果表明,MathGLM在一系列算術運算任務上的準確率接近100%,明顯優於GPT-4。即使參數量只有1億,MathGLM也優於GPT-4和ChatGPT。研究還發現,隨着參數量的增加,MathGLM的算術運算能力也在增強。在處理數字格式複雜的混合算術運算時,MathGLM也優於GPT-4和ChatGPT。該研究表明,語言模型在 Parameter 和數據量足夠大的條件下,可以準確地進行復雜的數學運算。
相關推薦
蘋果推出全新 FS-DFM 模型,AI 長文本寫作效率提升128倍!
蘋果與俄亥俄州立大學聯合推出FS-DFM模型,僅需8輪迭代即可生成媲美傳統模型上千輪迭代的長文本,寫入速度提升高達128倍,突破長文本生成效率瓶頸。該模型採用離散流匹配技術,區別於ChatGPT等逐字生成的自迴歸模型。
Oct 14, 2025
98.3k
螞蟻發佈萬億參數語言模型 Ling-1T,推理速度與能力引領行業新標杆
螞蟻集團發佈首款萬億參數開源模型Ling-1T,在推理、代碼生成、數學計算等領域表現卓越,樹立國產AI新標杆。該模型以超強推理速度與能力實現技術突破,測試中超越多款知名開源模型。
Oct 9, 2025
138.7k
谷歌DeepMind 發佈 VaultGemma 具備差分隱私能力
谷歌 DeepMind 最近推出了一款名爲 VaultGemma 的新型語言模型,這一創新的技術專注於用戶隱私的保護。VaultGemma 不僅是開源的,而且是目前規模最大的具備差分隱私能力的語言模型,參數數量達到了驚人的10億。這項技術的發佈,標誌着人工智能領域在保護用戶數據隱私方面的重大進步。傳統的大語言模型在訓練過程中可能會不小心記住一些敏感信息,比如姓名、地址和機密文檔等。爲了應對這一挑戰,VaultGemma 引入了差分隱私技術,通過在訓練過程中添加可控的隨機噪聲,確保模型的輸出無
Sep 16, 2025
143.2k
字節Seed推出全新 AgentGym-RL 框架:提升大規模語言模型的決策能力
研究聚焦於開發大規模語言模型代理,需強化學習框架支持其自主學習。當前缺乏從零訓練的有效方法,不依賴監督微調,需探索多樣化真實環境下的訓練方案。
Sep 11, 2025
165.7k
阿里巴巴發佈 Qwen3-Max-Preview:模型參數數量超過一萬億
阿里巴巴推出萬億參數語言模型Qwen3-Max-Preview,成爲AI技術新標杆。該模型通過Qwen Chat和阿里雲API開放使用,在內部測試和用戶反饋中表現優於前代頂級模型,在知識理解、對話能力、任務處理和指令執行方面均有顯著提升。
Sep 8, 2025
171.3k
