4月7日,Kimi開放平臺正式發佈公告,宣佈基於Moonshot AI一年來的技術積累和性能優化,對平臺提供的模型推理服務價格進行調整,同時大幅下調上下文緩存價格。這一舉措標誌着Kimi開放平臺在提升技術能力的同時,進一步優化用戶體驗,推動人工智能服務的普及與應用。
據Kimi開放平臺官方介紹,此次價格調整得益於Moonshot AI在過去一年中在模型訓練、推理加速及資源利用率優化方面的顯著突破。通過持續的技術迭代,平臺不僅提升了模型的處理效率和性能,還降低了運營成本。官方表示,這些成果讓Kimi有能力將更多實惠回饋給用戶,進一步降低企業與開發者接入大模型服務的門檻。

從調整內容來看,模型推理服務的價格普遍下調,降幅根據不同模型規格和使用場景有所差異。與此同時,上下文緩存價格也迎來顯著下調,這一調整尤爲引人注目,因爲Kimi平臺以超長上下文處理能力著稱,此舉將進一步提升用戶在處理長文本任務時的成本效益。
Kimi開放平臺自推出以來,以支持超長上下文輸入(最高達200萬字)爲核心競爭力,廣泛應用於文檔分析、文獻綜述、代碼復現等場景。此次上下文緩存價格的下調,意味着用戶在處理複雜任務時將享受更低的成本。例如,對於需要頻繁調用長文本數據的企業用戶或開發者來說,這不僅能減少費用支出,還能提升開發效率。
一位長期使用Kimi API的開發者表示:“上下文緩存價格下調對我們來說是個大利好。之前處理大篇幅文檔時成本較高,現在可以用更低的預算完成更多任務,性價比大幅提升。
