相关推荐
英伟达推出 Nemotron 3:混合架构提升 AI 代理处理效率
英伟达发布Nemotron 3系列,融合Mamba与Transformer架构,高效处理长上下文并降低资源消耗。该系列专为自主执行复杂任务的AI代理系统设计,包含Nano、Super、Ultra三款型号。目前Nano已上市,Super和Ultra预计2026年上半年推出。
120 人团队把万亿巨头拉下马:Runway Gen-4.5 盲测夺冠,正式宣战谷歌与 OpenAI
Runway公司最新模型Gen-4.5在第三方盲测平台Video Arena中击败谷歌Veo3与OpenAI Sora2Pro,成为首个由小团队登顶的大模型。其CEO强调“专注研究、快速迭代”的可行性,并指出“一百人对万亿,靠的不是预算,而是密度”。该模型采用自研时空混合Transformer架构,展现了小团队在AI视频生成领域的突破。
13GB显存干翻百亿巨兽:大华「星汉2.0」用一张财报给AI落地写答案
大华股份在同行拼参数时,将6B视觉模型塞进16GB显存边缘盒子,Q3净利增44%至10.6亿元。其2019年起用Transformer自洗数据、自标注,五年后"1+2"体系发展出V/M/L系列模型,实现高效边缘AI部署。
Databricks联创Konwinski警告:美国AI研究优势正在流失
Databricks联合创始人Andy Konwinski警告,美国正将AI研究主导权让给中国,这对民主构成"生存级"威胁。他指出,伯克利与斯坦福博士生反馈显示,过去一年约半数值得关注的AI新思路来自中国团队,比例显著上升。Konwinski与合伙人于2024年共同创立风投机构Laude并运营非营利加速器Laud。
中科院推出类脑大模型 SpikingBrain:以2% 数据实现百倍速度突破
近日,中国科学院自动化研究所的李国齐与徐波团队联合发布了全球首款大规模类脑脉冲大模型 ——SpikingBrain1.0。该模型在处理长文本时展现出惊人的速度,能够以超过当前主流 Transformer 模型100多倍的速度处理400万 token 的超长文本,且仅需2% 的数据量。当前主流的大语言模型,如 GPT 系列,普遍基于 Transformer 架构。尽管 Transformer 以其强大的自注意力机制而闻名,但其计算复杂度却是一个致命的短板。在文本长度增加时,计算量呈现出平方级别的暴涨,使得长文本的处理变得异常耗时和耗
