2025.07.30 支持 GLM 4.5 系列模型

极客智坊已支持 GLM 4.5 系列模型 极客智坊已支持智谱清言最新发布的 GLM 4.5 系列模型,包括开源模型和商业模型,GLM-4.5 系列是智谱清言面向智能体时代打造的最新旗舰模型,全面升级理解、推理与工具调用能力。采用混合专家(Mixture-of-Experts)架构,结合高效训练策略,专注提升工具调用、网页浏览、软件工程、前端编程等关键场景表现。支持最长 128k 上下文,具备思考模式与即时响应模式,灵活适配复杂任务与高效调用。 在12个维度的基准评测中,GLM-4.5 取得了全球模型第二、国产模型第一,开源模型第一: GLM-4.5 基准测试性能对比 GLM-4.5 基准测试性能对比 欢迎体验👉 你还可以通过极客智坊提供的模型代理 API 在自己的应用中集成对 GLM-4.5 系列模型的调用,为降低开发者调用 GLM-4.5 系列模型的成本,对于付费版本模型,极客智坊提供了5折高可用渠道: 通过极客智坊模型代理服务调用 GLM-4.5 系列模型
需要注意的是,官方限定 GLM-4.5 系列模型的并发量很低,极客智坊提供了远高于官方的并发量,保证你在高并发场景下的使用体验(GLM-4.5-Flash除外)。

2025.07.22 支持 Qwen3-235B-A22B 2507

极客智坊已支持 Qwen3-235B-A22B 2507 模型 极客智坊已支持 Qwen3-235B-A22B 2507 模型,这是 Qwen3 系列最新发布的模型,具有更强的推理能力和更长的上下文窗口(262K),相较于基础版,该版本在知识覆盖、长上下文推理、编码基准测试以及与开放式任务对齐方面取得了显著提升。 该模型在多个基准测试中表现出色,以下场景表现超过 Kimi K2、DeepSeek V3 以及 Claude Opus 4: Qwen3-235B-A22B 2507 基准测试性能对比 但价格更便宜,比 DeepSeek V3 还要便宜,欢迎体验👉 你还可以通过极客智坊提供的模型代理 API 在自己的应用中集成对 Qwen3-235B-A22B 2507 模型的调用,不过目前线路比较少,建议以体验为主,不推荐在生产环境使用: 通过极客智坊模型代理服务调用 Qwen3-235B-A22B 2507 模型

2025.07.11 支持 xAI Grok-4

极客智坊已支持 xAI 最新发布的 Grok-4 模型 极客智坊已支持 xAI 最新发布的推理模型 Grok-4 —— xAI 迄今为止最强大的模型,具有更高的推理能力和更长的上下文窗口。它在多个基准测试中表现出色: xAI Grok-4 基准测试性能对比 马斯克声称该模型在学术领域已经超越人类。“在学术问题方面,Grok 4 在每个科目上都优于博士水平,无一例外,”他说道。你可以在极客智坊体验这一最新模型👉 你还可以通过极客智坊提供的模型代理 API 在自己的应用中集成对 Grok-4 模型的调用,为降低开发者 API 调用成本,极客智坊提供了多个不同折扣的低价渠道,最低1折即可使用: 通过极客智坊模型代理服务调用 xAI Grok-4 模型 你可以前往极客智坊模型广场查看了解更多细节,关于 API 调用示例,请参考推理模式对话

2025.07.09 支持 GLM-4.1V-Thinking 系列模型

极客智坊已支持智谱清言视觉推理模型 GLM-4.1V-Thinking 极客智坊已支持智谱清言最新发布的视觉推理模型 GLM-4.1V-Thinking 系列模型,该系列是目前已知 10B 尺寸级别中性能最强的视觉推理模型。它在图表/视频理解、前端编码、GUI任务等核心能力达到全面新SOTA,并引入思维链推理机制,显著提升模型在复杂场景中的回答精准度与可解释性:
模型版本定位价格输入模态输出模态上下文窗口
GLM-4.1V-Thinking-Flash免费版/视频、图像、文档文本64K
GLM-4.1V-Thinking-FlashX高并发版2元 / 百万Tokens视频、图像、文档文本64K
推荐场景:
  • 图文理解:精准识别并综合分析图像与文本信息;
  • 数学与科学推理:支持持复杂题解、多步演绎与公式理解;
  • 视频理解:具备时序分析与事件逻辑建模能力;
  • GUI 与网页智能体任务:理解界面结构,辅助自动化操作;
  • 视觉锚定与实体定位:语言与图像区域精准对齐,提升人机交互可控性。
欢迎体验👉 你可以通过极客智坊提供的模型代理 API 在自己的应用中集成对这两个模型的调用,为降低 API 调用成本,极客智坊提供了8折高可用渠道价格: 通过极客智坊模型代理服务调用 GLM-4.1V-Thinking 模型 你可以前往极客智坊模型广场查看了解更多细节,关于 API 调用示例,请参考推理模式对话

2025.07.06 支持 OpenAI 深度研究模型

极客智坊已支持 OpenAI 深度研究模型 o3-deep-research 和 o4-mini-deep-research 极客智坊已支持 OpenAI 最新发布的深度研究模型 o3-deep-research 和 o4-mini-deep-research:
  • o3-deep-research 是 OpenAI 最先进的深度研究模型,旨在处理复杂的多步骤研究任务。它能够搜索并整合来自互联网以及通过 MCP 连接器导入自有数据中的信息。
  • o4-mini-deep-research 是更快、更经济的深度研究模型,非常适合处理复杂、多步骤的研究任务。它能够搜索和整合来自互联网以及通过 MCP 连接器导入自有数据中的信息。
由于这两个模型都不支持对话接口,因此目前只能通过 Response API 进行调用,你可以通过极客智坊提供的模型代理 API 在自己的应用中集成对这两个模型的调用,为降低 API 调用成本,极客智坊提供了6折高可用渠道价格: 通过极客智坊模型代理服务调用 OpenAI 深度研究模型 你可以前往极客智坊模型广场查看了解更多细节,关于 Response API 调用,请参考对应的 API 手册

2025.07.01 支持百度 ERNIE 4.5 & X1 新模型

极客智坊已支持百度最新发布 ERNIE 4.5 & X1 模型 极客智坊已支持百度最新发布的 ERNIE 4.5 & X1 系列新模型,包括开源模型和商业模型,ERNIE 4.5 系列模型均使用飞桨深度学习框架进行高效训练、推理和部署。在大语言模型的预训练中,模型 FLOPs 利用率(MFU)达到 47%。实验结果显示,该系列模型在多个文本和多模态基准测试中达到 SOTA 水平,在指令遵循、世界知识记忆、视觉理解和多模态推理任务上效果尤为突出: 文心4.5系列模型在Benchmark上效果体现 欢迎体验👉 开源模型 商业模型 你可以通过极客智坊提供的模型代理 API 在自己的应用中集成对 ERNIE 4.5 & X1 开源/商业模型的调用: 通过极客智坊模型代理服务调用百度文心系列模型 关于 ERNIE 4.5 & X1 模型价格信息,你可以前往极客智坊模型广场进行查看了解更多细节。