關於AI行業是否會出現“贏家通吃”現象,業內有不同聲音。代表方吳恩達認爲數據和機器學習會持續強化領先者地位;但A16Z合夥人則認爲,更多數據不一定帶來更好產品,每個模型只能做一件事。行業專家認爲,這取決於具體行業及應用場景。另外,互聯網時代的投資邏輯在AI時代行不通,因爲算力是有成本的,小型專業化模型也有優勢,財富分配會更平均。
相關推薦
日燒1500萬美元!OpenAI爲Sora豪賭AI視頻賽道,400萬用戶難掩商業模式危機
OpenAI旗下Sora視頻生成應用日均運營成本達1500萬美元,年化支出或超50億美元。上線一個月下載量突破400萬,日均產出數百萬短視頻,但高流量伴隨鉅額虧損,暴露財務可持續性危機,需緊急戰略調整。病毒傳播掩蓋了“虛假繁榮”本質。
8B模型碾壓32B?Mira Murati新作“在線策略蒸餾”引爆AI訓練革命,成本直降90%!
前OpenAI首席技術官Mira Murati領導的團隊推出“在線策略蒸餾”技術,僅用80億參數的小模型即可達到32B大模型70%的性能,訓練成本降低90%,效率提升50-100倍,讓中小企業和個人開發者能以低成本獲得高性能模型。
專訪微軟陶然:很多人認爲有 GPU 就能做大模型,這是一個很大的誤區丨科創 100 人
["微軟認爲每個 APP 和應用都應該被 AI 優化,過去半年微軟基於 AI 重寫了幾乎所有內部產品。","大模型意味着大成本,大模型的價格永遠是不可控的。","大模型的成本包括硬件成本、算力成本、網絡成本、算法成本等,而算力成本只是其中的一部分。"]}
從閉源到開源,OpenAI重磅推出gpt-oss-120b與20b,開發者狂歡!
OpenAI宣佈開源兩款MoE架構語言模型gpt-oss-120b(1170億參數)和gpt-oss-20b(210億參數),採用Apache2.0許可。120b適合數據中心,20b適配邊緣設備,均支持128k上下文長度和多種推理框架。OpenAI強調安全標準,通過對抗測試確保模型安全性。此舉被視爲應對開源競爭的戰略調整,滿足企業本地化部署需求。模型支持鏈式推理、工具調用等功能,開發者可通過Hugging Face等平臺獲取。這是OpenAI自2019年後首次迴歸開源,可能推動行業採用混合AI策略。
重磅升級!Claude Opus4.1橫空出世,編程能力直衝74.5%新高!
Anthropic發佈Claude Opus4.1升級版,重點提升編程和數據分析能力。新模型在SWE-bench編程評測中取得74.5%的高分,GitHub開發者反饋其多文件代碼重構表現優異。Rakuten Group證實其能精準定位大型代碼庫錯誤。研究顯示Opus4.1在細節追蹤和agentic搜索方面進步顯著,性能提升約一個標準差。該模型仍保持ASL-3安全標準,無害響應率達98.76%,極端濫用場景配合度降低25%。現已面向所有付費用戶開放,價格不變。
