近日,OpenAI 推出了其最新的開源模型 gpt-oss-20b,這是一款擁有200億參數的語言模型。該模型在多個常見基準測試中與 OpenAI 的 o3-mini 模型取得了相似的表現,顯示出其強大的推理能力。值得注意的是,高通公司在這一發布中宣佈,gpt-oss-20b 是首個可以在搭載驍龍平臺的終端設備上運行的開源推理模型。

圖源備註:圖片由AI生成,圖片授權服務商Midjourney

此前,OpenAI 的複雜模型主要依賴於雲端進行部署,用戶需要依賴網絡連接來獲取服務。而現在,通過與高通的合作,gpt-oss-20b 模型可以直接在驍龍旗艦處理器的終端上進行本地推理。這意味着,用戶在使用 AI 助手時將不再受限於網絡速度,能夠享受到更快的響應時間和更好的隱私保護。

高通表示,通過提前獲取 gpt-oss-20b 模型,並與 Qualcomm AI Stack 進行集成測試,驗證了該模型在終端設備上的卓越性能。此舉標誌着 AI 技術的一個重要轉折點,預示着複雜的助手式推理將不再僅限於雲端,而是能夠實現本地處理。這一進展不僅提升了用戶體驗,也爲開發者和合作夥伴提供了新的可能性。

對於開發者來說,gpt-oss-20b 將通過 Hugging Face 和 Ollama 等主流平臺提供下載,便於在搭載驍龍平臺的終端上進行應用。用戶可以輕鬆地在 Ollama 平臺上體驗到該模型的 Turbo 模式,探索更多功能,而無需複雜的配置。此外,高通還計劃在 Qualcomm AI Hub 上發佈更多的部署細節,以幫助開發者更好地利用這一新模型。

隨着 gpt-oss-20b 的發佈,未來的 AI 生態系統將變得更加成熟,合作伙伴和開發者能夠藉助驍龍處理器,實時利用 OpenAI 的創新成果,推動更多智能應用的發展。

劃重點:  

🌟 OpenAI 推出的新開源模型 gpt-oss-20b 可以在驍龍終端本地運行。  

⚡️ 該模型提供更快的響應時間和更好的隱私保護,減少對網絡的依賴。  

🚀 開發者可通過主流平臺下載使用 gpt-oss-20b,並探索其更多功能。