学术头条报道,来自清华大学、TAL AI Lab和智谱AI的研究者提出了20亿参数语言模型MathGLM,用于探索大语言模型在数学推理方面的效率。该模型采用Transformer解码器架构,在大规模算术数据集上训练,数学运算能力得到显著提升。实验结果表明,MathGLM在一系列算术运算任务上的准确率接近100%,明显优于GPT-4。即使参数量只有1亿,MathGLM也优于GPT-4和ChatGPT。研究还发现,随着参数量的增加,MathGLM的算术运算能力也在增强。在处理数字格式复杂的混合算术运算时,MathGLM也优于GPT-4和ChatGPT。该研究表明,语言模型在 Parameter 和数据量足够大的条件下,可以准确地进行复杂的数学运算。
相关推荐
苹果推出全新 FS-DFM 模型,AI 长文本写作效率提升128倍!
苹果与俄亥俄州立大学联合推出FS-DFM模型,仅需8轮迭代即可生成媲美传统模型上千轮迭代的长文本,写入速度提升高达128倍,突破长文本生成效率瓶颈。该模型采用离散流匹配技术,区别于ChatGPT等逐字生成的自回归模型。
2025年10月14号 14:13
99.2k
蚂蚁发布万亿参数语言模型 Ling-1T,推理速度与能力引领行业新标杆
蚂蚁集团发布首款万亿参数开源模型Ling-1T,在推理、代码生成、数学计算等领域表现卓越,树立国产AI新标杆。该模型以超强推理速度与能力实现技术突破,测试中超越多款知名开源模型。
2025年10月9号 15:10
138.7k
谷歌DeepMind 发布 VaultGemma 具备差分隐私能力
谷歌 DeepMind 最近推出了一款名为 VaultGemma 的新型语言模型,这一创新的技术专注于用户隐私的保护。VaultGemma 不仅是开源的,而且是目前规模最大的具备差分隐私能力的语言模型,参数数量达到了惊人的10亿。这项技术的发布,标志着人工智能领域在保护用户数据隐私方面的重大进步。传统的大语言模型在训练过程中可能会不小心记住一些敏感信息,比如姓名、地址和机密文档等。为了应对这一挑战,VaultGemma 引入了差分隐私技术,通过在训练过程中添加可控的随机噪声,确保模型的输出无
2025年9月16号 14:49
145.1k
字节Seed推出全新 AgentGym-RL 框架:提升大规模语言模型的决策能力
研究聚焦于开发大规模语言模型代理,需强化学习框架支持其自主学习。当前缺乏从零训练的有效方法,不依赖监督微调,需探索多样化真实环境下的训练方案。
2025年9月11号 11:45
150.8k
阿里巴巴发布 Qwen3-Max-Preview:模型参数数量超过一万亿
阿里巴巴推出万亿参数语言模型Qwen3-Max-Preview,成为AI技术新标杆。该模型通过Qwen Chat和阿里云API开放使用,在内部测试和用户反馈中表现优于前代顶级模型,在知识理解、对话能力、任务处理和指令执行方面均有显著提升。
2025年9月8号 10:31
171.3k
