2025年6月2日,人工智能芯片公司 Cerebras Systems 宣佈,其推理 API 現已對所有開發者全面開放,取消了此前的等待名單限制。這一舉措標誌着 Cerebras 在加速生成式 AI 應用開發方面邁出了重要一步,爲全球開發者提供高效、快速的 AI 推理服務。
據 Cerebras 官方聲明,開發者每日可免費獲得100萬個 Token 的使用額度。這一免費配額爲開發者提供了充足的資源,用於構建和測試基於 Cerebras 推理平臺的高性能 AI 應用。
Cerebras 表示,其推理 API 在速度上顯著優於傳統 GPU 解決方案,推理速度可達 GPU 的20倍,尤其在實時語音、視頻處理、複雜推理模型以及代碼生成等場景中表現出色。測試數據顯示,Cerebras 的推理服務在運行 Llama4Scout 模型時,可實現每秒超過2600個 Token 的生成速度,遠超其他基於 GPU 的 API 提供商。
Cerebras 的推理 API 支持多種主流開源模型,包括 Llama4和 Qwen3-32B,開發者可通過簡單的 API 調用快速集成這些模型。此外,通過與 Hugging Face 和 Meta 等平臺的合作,Cerebras 推理 API 已無縫嵌入這些生態系統,進一步降低了開發者的使用門檻。例如,Hugging Face 的500萬開發者只需在平臺上選擇 Cerebras 作爲推理提供商,即可直接體驗其超高性能。
Cerebras 首席執行官 Andrew Feldman 表示:“我們致力於爲開發者提供最快的 AI 推理服務,讓他們能夠更高效地構建實時、智能化應用。開放 API 並提供每日百萬免費 Token,是我們賦能全球創新的重要一步。”
此次 API 的全面開放,不僅爲初創公司和獨立開發者提供了低成本的 AI 開發機會,也爲企業用戶提供了構建複雜 AI 應用的高效工具。Cerebras 的高性能推理能力,結合其在北美和歐洲新建立的六大數據中心,預計將進一步推動生成式 AI 在醫療、金融、語音交互等領域的廣泛應用。
業內人士指出,Cerebras 此舉可能對 AI 推理市場產生深遠影響,尤其是在與 Nvidia 等傳統 GPU 供應商的競爭中,Cerebras 憑藉其獨特的大尺寸晶圓級引擎(WSE-3)展現了強大的技術優勢。未來,隨着推理需求的持續增長,Cerebras 的開放策略或將重塑 AI 基礎設施的市場格局。