2025.05.12 支持 Gemini 隐式缓存

Gemini 2.5 模型现已支持隐式缓存功能,相较于之前需要显示创建缓存的方式,隐式缓存可以在不需要开发者干预的情况下自动缓存模型提示输入,从而达到降低模型使用成本的目的,而且免除了缓存存储的成本。

隐式缓存目前仅适用于 Gemini 2.5 版本模型,命中缓存的提示输入价格为正常输入价格的 1/4,你可以到模型广场进行查看和选用:

和 OpenAI 和 DeepSeek 提示缓存技术类似,两个请求间只有重复的提示前缀部分才能触发缓存命中,因此,为了增加请求命中缓存的几率,请确保请求开头的内容保持一致,并在提示的末尾添加用户提问或其他可能随请求变化的额外上下文。

缓存默认开启,对于 Gemini 2.5 Flash,适用于 1024 tokens 或更长的提示,对于 Gemini 2.5 Pro,适用于 2048 tokens 或更长的提示。

更多关于在 Gemini API 中使用隐式缓存的实用技巧,请参阅官方文档

2025.05.08 支持 Mistral Medium 3

极客智坊已引入对 MistralAI 公司最新发布的企业级 AI 模型 Mistral Medium 3 的支持,Mistral Medium 3 性能卓越,同时成本大幅降低,在各项基准测试中,该模型的表现达到或超过 GPT-4o 和 Claude-3.7-Sonnet,但成本却大幅降低(每百万 token 的输入成本为 0.4 美元,输出成本为 2 美元)。在性能上,Mistral Medium 3 还超过了 Llama 4 Maverick 等领先的开源模型,以及 Cohere Command A 等企业级模型:

另外极客智坊还引入了对 Gemini 2.5 Pro 最新预览版(0506)的支持,该模型的一个提升之处是支持思考链输出,欢迎体验👉

所有模型支持通过极客智坊 API 进行调用,你可以在模型广场进行查看和选用。

2025.05.02 支持 DeepSeek Prover V2

极客智坊已支持 DeepSeek Prover V2 模型 671B 参数版,这是一个为 Lean 4 形式定理证明设计的开源大型语言模型,其初始化数据是通过由 DeepSeek-V3 驱动的递归定理证明管道收集的,冷启动训练过程首先提示 DeepSeek-V3 将复杂问题分解成一系列子目标,已解决的子目标的证明被合成成一个思维链过程,结合 DeepSeek-V3 的逐步推理,为强化学习创建一个初始冷启动,这个过程使我们能够将非正式和正式的数学推理整合到一个统一模型中。

欢迎体验👉

所有模型支持通过极客智坊 API 进行调用,你可以在模型广场进行查看和选用。更多关于 API 调用和第三方应用接入的细节,请查阅极客智坊文档教程