近日,AMD 發佈了其最新的 Strix Point APU 系列,強調該系列在 AI 大語言模型(LLM)應用中的出色表現,遠超英特的 Lunar Lake 系列處理器。AI 工作負載需求的不斷增長,硬件的競爭愈發激烈。爲了應對市場,AMD 推出了爲移動平臺設計的 AI 處理器,旨在更高的性能更低的延遲。
AMD 表示,ix Point 系列的 Ryzen AI300處理器在處理 AI LLM 任務時,能夠顯著提高每秒處理的 Tokens 數量,相較於英特爾的 Core Ultra 258V,Ryzen AI9375的性能提升達到了27%。雖然 Core Ultra7V 並不是 L Lake 系列中最快型號,但其核心和線程數量接近於更高端的 Lunar Lake 處理器,顯示出 AMD 產品在此領域的競爭力。

AMD 的 LM Studio 工具一款面向消費者的應用,基 llama.cpp 框架,旨在簡化大語言模型的使用。該框架優化了 x86CPU 的性能,雖然不需要 GPU 就能運行 LLM,但使用 GPU 可以進一步加速處理速度。根據測試,Ryzen AI9HX375在 Meta Llama3.21b Instruct 模型中,能夠實現35倍更低延遲,每秒處理達到50.7個 Tokens 比之下,Core Ultra7258V 僅爲39.9個 Tokens。
不僅如此,Strix Point APU 還配備強大的基於 RDNA3.5構的 Radeon 集成顯卡,通過 ulkan API 將任務卸載到 iGPU 上,進一步提升 LLM 的性能。利用變更圖形內存(VGM)技術,Ryzen AI300處理器可優化內存分配,提高能效,最終實現達60% 的性能提升。
在對比測試中,AMD 在 Intel AI Playground 平臺上使用相同設置,發現 Ryzen AI9HX375在 Microsoft Phi3.1上比 Core Ultra7258V 快87%,而在 Mistral7b Instruct0.3模型中快13%。儘管如此,若與 Lunar Lake 系列中的旗艦產品 Core Ultra9288V 進行比較,結果將更加有趣。目前,AMD 正專注於通過 LM Studio 使大語言模型的使用變得更加普及,旨在讓更多非技術用戶也能輕鬆上手。
劃重點:
🌟 AMD Strix Point APUs 在 AI LLM 應用中比英特爾 Lunar Lake 提升了27% 的性能。
⚡ Ryzen AI9HX375在 Meta Llama3.2模型中表現3.5倍更低的延遲。
🚀 LM Studio 工具旨在使大語言模型的使用變得更簡單,適合非技術用戶。
