【AIbase 報道】近日,一家鮮爲人知但備受關注的舊金山初創公司 Deep Cogito 發佈了旗下 Cogito v2系列大型語言模型(LLM),試圖在擁擠的開源AI賽道中突圍。不同於傳統的參數堆疊策略,這家由前谷歌工程師創立的公司,押注“機器直覺”與自我改進的推理能力,打造出真正能“邊用邊學”的AI模型。

模型不僅回答問題,更學習“如何回答問題”

Cogito v2系列包括四個模型,參數規模從 70B 到671B 不等,分爲 密集模型(Dense) 和 專家混合模型(MoE),均已在 Hugging Face、Together AI 等平臺開放使用。旗艦模型 Cogito v2-671B MoE 被稱爲“思維效率最優”的推理型AI,推理路徑比 DeepSeek R1縮短60%,性能卻能與 Qwen1.5-72B 和 Claude4Opus 接近甚至超越。

其核心技術在於模型不僅在運行時進行“內省式推理”,更將這些推理路徑提煉回模型權重中,形成內化直覺。這一機制,讓模型能像 AlphaGo 通過對弈強化策略一樣,在每一次推理中“變得更聰明”。

元宇宙 科幻 賽博朋克 繪畫 (4)大模型

推理實力實戰檢驗:速度更快,路徑更短

Deep Cogito 發佈了多個測試樣例來驗證其“機器直覺”:

  • 在數學問題中,Cogito671B 憑藉短至100token 的推理鏈準確得出結論,而 DeepSeek R1則用了200+ token。

  • 在法律類推理中,它採用兩步邏輯結構輸出清晰結論,超過許多模型甚至真實法學碩士學生的表現。

  • 在經典親屬邏輯題“愛麗絲是查理的祖母嗎?”中,Cogito v2成功避開了代詞混淆陷阱,準確輸出“祖母”。

 更低成本的訓練路線,挑戰百萬級預算神話

儘管 Cogito v2的模型規模龐大,Deep Cogito 稱其 訓練8個模型總成本不到350萬美元,這與 OpenAI、Anthropic 動輒上億美元的研發開銷形成鮮明對比。

公司首席執行官 Drishan Arora 表示:“更好的模型不是訓練更多數據,而是訓練更有意義的數據。”這正是 Cogito 模型得以在推理任務上突破的關鍵所在。

開源理念延續,打造“會進化的模型體系”

Cogito v2模型目前已可通過 Hugging Face、Baseten、RunPod、Unsloth 等平臺下載或API調用。爲輕量化部署場景,Cogito671B 還推出了 FP8量化版本,支持大模型以更低硬件門檻運行,推理效率提升,準確率僅微幅下降。

更重要的是,Deep Cogito 承諾所有模型開源,並將持續迭代、優化,形成以“推理鏈反饋+自我提升”爲核心的新型模型訓練路徑。

目前,Cogito v2已獲得 Benchmark 和 South Park Commons 等知名機構的關注與支持,並被視爲開源AI領域的一匹黑馬。