月之暗面旗下Kimi 開放平臺宣佈,上下文緩存 Cache 存儲費用降價50%。具體爲:Cache 存儲費用由10元/1M tokens/min,降低至5元/1M tokens/min。

7月1日,Kimi 開放平臺宣佈,上下文緩存(Context Caching)開始公測。
上下文緩存(Context Caching)是一種高效的數據管理技術,它允許系統預先存儲那些可能會被頻繁請求的大量數據或信息。
這樣,當您再次請求相同信息時,系統可以直接從緩存中快速提供,而無需重新計算或從原始數據源中檢索,從而節省時間和資源。
上下文緩存(Context Caching)特別適合用於頻繁請求,重複引用大量初始上下文的場景,可以顯著降低長文本模型費用並提高效率!
