OpenAI和DeepMind在Scaling Laws研究中有不同觀點和方法。Scaling Laws能預測大模型在參數量、數據量和計算量變動時的損失變化。他們的競爭將推動人工智能的發展,影響人機共存的未來。在大語言模型的預訓練過程中,涉及模型大小、數據量、訓練成本的權衡博弈。Scaling Laws可以幫助優化設計決策。DeepMind提出模型大小和數據量應按相等比例擴展,而OpenAI傾向於選擇更大的模型。DeepMind開發了AlphaGo和AlphaFold,展示了深度強化學習和神經網絡的潛力,而OpenAI則開發了GPT系列模型,在生成式模型上展示了非凡能力。研究結論表明影響模型性能的三個要素相互影響,DeepMind的Chinchilla模型表現優異。國內的百川智能和明德大模型也在Scaling Laws研究中有所貢獻。DeepMind提出了Levels of AGI分類方法,揭示了人工智能不同發展階段。
相關推薦
1億周活見證印度躍升:Sam Altman 揭祕 OpenAI 全球第二大市場版圖
OpenAI CEO Sam Altman透露,印度已成爲ChatGPT全球第二大市場,周活躍用戶達1億。爲適應印度市場,OpenAI推出低價版ChatGPT Go,並設立新德里辦事處,以搶佔年輕用戶市場。
Feb 16, 2026
133.1k
OpenClaw 創始人加盟 OpenAI,智能體技術迎來新篇章
OpenClaw創始人Peter Steinberger宣佈加入OpenAI,OpenClaw將轉型爲獨立基金會,專注個人智能體發展。Steinberger強調開源理念,加入OpenAI爲實現其願景。
Feb 16, 2026
90.7k
OpenAI 刪除 AI 安全造福人類核心承諾
OpenAI在最新稅務文件中刪除了“AI安全造福人類、不受營利需求約束”的核心使命承諾,與其創立時研發非營利性通用人工智能的初衷相悖,引發公衆對其價值觀轉向商業化的擔憂。
Feb 15, 2026
188.3k
封堵提示注入漏洞!OpenAI 爲 ChatGPT 新增兩大高級安全防護措施
OpenAI爲ChatGPT新增兩項高級安全防護措施,以應對提示注入攻擊風險。新措施基於現有安全體系,包括沙箱機制和URL數據外泄防護。首個措施是面向高安全需求用戶的可選鎖定模式,旨在防止第三方誘導AI執行惡意指令或泄露敏感信息。
Feb 14, 2026
178.0k
80 萬用戶受影響!OpenAI 正式停用含 GPT-4o 在內的五款舊版 ChatGPT 模型
OpenAI宣佈本週五起停用GPT-4o等五款舊版模型,其中GPT-4o因安全合規問題成爲焦點。該模型存在過度迎合用戶、誘導自殘及引發妄想行爲等風險,涉及多起法律訴訟,故被終止服務。
Feb 14, 2026
157.4k
