Z.ai
glm-5.1
GLM-5.1
SWE-Bench Pro #1
面向长时自主编码与深度推理的开源旗舰模型。
- 发布时间
- Apr 07, 2026
- 发布时间
- Apr 07, 2026
- 最大输出
- 128K
- 上下文
- 198K
- 价格
- $0.500 / $1.500
Cached Input: $0.175
TTFT
520ms
吞吐
42 tok/s
模型中心
BatchIn 公开目录优先展示真实上线模型、独家模型与即将上线的关键路线,不再展示虚构模型。
38 个模型
Z.ai
glm-5.1
SWE-Bench Pro #1
面向长时自主编码与深度推理的开源旗舰模型。
Cached Input: $0.175
TTFT
520ms
吞吐
42 tok/s
Z.ai
glm-5
更低单价的 GLM 路线,适合生产推理、智能体与长上下文工作流。
Cached Input: $0.122
TTFT
520ms
吞吐
42 tok/s
Z.ai
glm-4.7
SWE-bench 73.8%
适合希望降低旗舰成本但仍保持工程推理质量的中高端 GLM 路线。
Cached Input: $0.052
TTFT
420ms
吞吐
58 tok/s
DeepSeek
deepseek-r1
o1-class reasoning
面向复杂规划、数学、研究与多步分析的重推理模型。
Cached Input: $0.063
TTFT
160ms
吞吐
120 tok/s
DeepSeek
deepseek-v3.2
IMO + IOI gold
DeepSeek 旗舰版本,以极具攻击性的价格提供强通用推理能力。
Cached Input: $0.035
TTFT
160ms
吞吐
120 tok/s
DeepSeek
deepseek-v3.1-terminus
适合更长结构化输出的 DeepSeek 路线。
Cached Input: $0.035
TTFT
160ms
吞吐
120 tok/s
DeepSeek
deepseek-v3
适合大规模对话与批处理的稳定版 DeepSeek 通用模型。
Cached Input: $0.028
TTFT
160ms
吞吐
120 tok/s
Alibaba
qwen3-32b
适合通用对话、编码与生产助手工作负载的均衡型 Qwen 模型。
Cached Input: $0.007
TTFT
220ms
吞吐
94 tok/s
Alibaba
qwen3.5-397b
201 languages
适合多语言推理、编码与大上下文助手的顶级 Qwen MoE 模型。
Cached Input: $0.035
TTFT
420ms
吞吐
58 tok/s
Alibaba
qwen3.5-122b
适合长上下文助手与成本敏感生产路由的均衡型 Qwen MoE。
Cached Input: $0.028
TTFT
310ms
吞吐
72 tok/s
Alibaba
qwen3.5-35b
适合产品 Copilot 与高并发助手流量的低成本 Qwen MoE 路线。
Cached Input: $0.021
TTFT
220ms
吞吐
94 tok/s
Alibaba
qwen3.5-27b
exceeds GPT-5-mini
面向低成本对话、智能体路由与产品 Copilot 的轻量 Qwen 路线。
Cached Input: $0.025
TTFT
220ms
吞吐
94 tok/s