相關推薦
英偉達推出 Nemotron 3:混合架構提升 AI 代理處理效率
英偉達發佈Nemotron 3系列,融合Mamba與Transformer架構,高效處理長上下文並降低資源消耗。該系列專爲自主執行復雜任務的AI代理系統設計,包含Nano、Super、Ultra三款型號。目前Nano已上市,Super和Ultra預計2026年上半年推出。
120 人團隊把萬億巨頭拉下馬:Runway Gen-4.5 盲測奪冠,正式宣戰谷歌與 OpenAI
Runway公司最新模型Gen-4.5在第三方盲測平臺Video Arena中擊敗谷歌Veo3與OpenAI Sora2Pro,成爲首個由小團隊登頂的大模型。其CEO強調“專注研究、快速迭代”的可行性,並指出“一百人對萬億,靠的不是預算,而是密度”。該模型採用自研時空混合Transformer架構,展現了小團隊在AI視頻生成領域的突破。
13GB顯存幹翻百億巨獸:大華「星漢2.0」用一張財報給AI落地寫答案
大華股份在同行拼參數時,將6B視覺模型塞進16GB顯存邊緣盒子,Q3淨利增44%至10.6億元。其2019年起用Transformer自洗數據、自標註,五年後"1+2"體系發展出V/M/L系列模型,實現高效邊緣AI部署。
Databricks聯創Konwinski警告:美國AI研究優勢正在流失
Databricks聯合創始人Andy Konwinski警告,美國正將AI研究主導權讓給中國,這對民主構成"生存級"威脅。他指出,伯克利與斯坦福博士生反饋顯示,過去一年約半數值得關注的AI新思路來自中國團隊,比例顯著上升。Konwinski與合夥人於2024年共同創立風投機構Laude並運營非營利加速器Laud。
中科院推出類腦大模型 SpikingBrain:以2% 數據實現百倍速度突破
近日,中國科學院自動化研究所的李國齊與徐波團隊聯合發佈了全球首款大規模類腦脈衝大模型 ——SpikingBrain1.0。該模型在處理長文本時展現出驚人的速度,能夠以超過當前主流 Transformer 模型100多倍的速度處理400萬 token 的超長文本,且僅需2% 的數據量。當前主流的大語言模型,如 GPT 系列,普遍基於 Transformer 架構。儘管 Transformer 以其強大的自注意力機制而聞名,但其計算複雜度卻是一個致命的短板。在文本長度增加時,計算量呈現出平方級別的暴漲,使得長文本的處理變得異常耗時和耗
