展會信息港展會大全

月之暗面Kimi開放平臺“上下文緩存”開啟公測:首Token延遲降低83%
來源:互聯(lián)網(wǎng)   發(fā)布日期:2024-07-02   瀏覽:377次  

導讀:月之暗面官宣 Kimi 開放平臺上下文緩存(Context Caching)功能開啟公測。官方表示,該技術在 API 價格不變的前提下,可為開發(fā)者降低最高 90% 的長文本旗艦大模型使用成本,并提升模型響應速度。 IT之家附 Kimi 開放平臺上下文緩存功能公測詳情如 ......

月之暗面官宣 Kimi 開放平臺上下文緩存(Context Caching)功能開啟公測。官方表示,該技術在 API 價格不變的前提下,可為開發(fā)者降低最高 90% 的長文本旗艦大模型使用成本,并提升模型響應速度。

月之暗面Kimi開放平臺“上下文緩存”開啟公測:首Token延遲降低83%

IT之家附 Kimi 開放平臺上下文緩存功能公測詳情如下:

技術簡介

據(jù)介紹,上下文緩存是一種數(shù)據(jù)管理技術,允許系統(tǒng)預先存儲會被頻繁請求的大量數(shù)據(jù)或信息。當用戶請求相同信息時,系統(tǒng)可以直接從緩存中提供,無需重新計算或從原始數(shù)據(jù)源中檢索。

月之暗面Kimi開放平臺“上下文緩存”開啟公測:首Token延遲降低83%

適用場景

上下文緩存適用于頻繁請求,重復引用大量初始上下文場景,可降低長文本模型費用,提高效率。官方表示費用最高降低 90 %,首 Token 延遲降低 83%。適用業(yè)務場景如下:

提供大量預設內容的 QA Bot,例如 Kimi API 小助手

針對固定的文檔集合的頻繁查詢,例如上市公司信息披露問答工具

對靜態(tài)代碼庫或知識庫的周期性分析,例如各類 Copilot Agent

瞬時流量巨大的爆款 AI 應用,例如哄哄模擬器,LLM Riddles

交互規(guī)則復雜的 Agent 類應用等

月之暗面Kimi開放平臺“上下文緩存”開啟公測:首Token延遲降低83%

月之暗面Kimi開放平臺“上下文緩存”開啟公測:首Token延遲降低83%

計費說明

上下文緩存收費模式主要分為以下三個部分:

Cache 創(chuàng)建費用

調用 Cache 創(chuàng)建接口,成功創(chuàng)建 Cache 后,按照 Cache 中 Tokens 按實際量計費。24 元 / M token

Cache 存儲費用

Cache 存活時間內,按分鐘收取 Cache 存儲費用。10 元 / M token / 分鐘

Cache 調用費用

Cache 調用增量 token 的收費:按模型原價收費

Cache 調用次數(shù)收費:Cache 存活時間內,用戶通過 chat 接口請求已創(chuàng)建成功的 Cache,若 chat message 內容與存活中的 Cache 匹配成功,將按調用次數(shù)收取 Cache 調用費用。0.02 元 / 次

月之暗面Kimi開放平臺“上下文緩存”開啟公測:首Token延遲降低83%

公測時間和資格說明

公測時間:功能上線后,公測 3 個月,公測期價格可能隨時調整。

公測資格:公測期間 Context Caching 功能優(yōu)先開放給 Tier5 等級用戶,其他用戶范圍放開時間待定。

贊助本站

相關內容
AiLab云推薦
展開

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實驗室 版權所有    關于我們 | 聯(lián)系我們 | 廣告服務 | 公司動態(tài) | 免責聲明 | 隱私條款 | 工作機會 | 展會港