模型中心

真实可用的 AI 模型目录

BatchIn 公开目录优先展示真实上线模型、独家模型与即将上线的关键路线,不再展示虚构模型。

38 个模型

Z.ai

Z.ai

glm-5.1

GLM-5.1

在线

SWE-Bench Pro #1

面向长时自主编码与深度推理的开源旗舰模型。

发布时间
Apr 07, 2026
发布时间
Apr 07, 2026
最大输出
128K
上下文
198K
价格
$0.500 / $1.500

Cached Input: $0.175

MITOpen Sourcereasoningcodingfeatured

TTFT

520ms

吞吐

42 tok/s

查看模型详情
Z.ai

Z.ai

glm-5

GLM-5

在线

更低单价的 GLM 路线,适合生产推理、智能体与长上下文工作流。

发布时间
2026
发布时间
2026
最大输出
64K
上下文
198K
价格
$0.350 / $0.900

Cached Input: $0.122

Apache 2.0Open Sourcereasoningworkflow

TTFT

520ms

吞吐

42 tok/s

查看模型详情
Z.ai

Z.ai

glm-4.7

GLM-4.7

在线

SWE-bench 73.8%

适合希望降低旗舰成本但仍保持工程推理质量的中高端 GLM 路线。

发布时间
2026
发布时间
2026
最大输出
64K
上下文
198K
价格
$0.150 / $0.800

Cached Input: $0.052

Apache 2.0Open Sourcereasoningcoding

TTFT

420ms

吞吐

58 tok/s

查看模型详情
DeepSeek

DeepSeek

deepseek-r1

DeepSeek R1

在线

o1-class reasoning

面向复杂规划、数学、研究与多步分析的重推理模型。

发布时间
2025
发布时间
2025
最大输出
64K
上下文
160K
价格
$0.180 / $0.600

Cached Input: $0.063

MITOpen Sourcereasoningmathresearch

TTFT

160ms

吞吐

120 tok/s

查看模型详情
DeepSeek

DeepSeek

deepseek-v3.2

DeepSeek V3.2

在线

IMO + IOI gold

DeepSeek 旗舰版本,以极具攻击性的价格提供强通用推理能力。

发布时间
2026
发布时间
2026
最大输出
64K
上下文
160K
价格
$0.100 / $0.150

Cached Input: $0.035

MITOpen Sourcereasoningfeatured

TTFT

160ms

吞吐

120 tok/s

查看模型详情
DeepSeek

DeepSeek

deepseek-v3.1-terminus

DeepSeek V3.1 Terminus

在线

适合更长结构化输出的 DeepSeek 路线。

发布时间
2026
发布时间
2026
最大输出
64K
上下文
160K
价格
$0.100 / $0.350

Cached Input: $0.035

MITOpen Sourcereasoningworkflow

TTFT

160ms

吞吐

120 tok/s

查看模型详情
DeepSeek

DeepSeek

deepseek-v3

DeepSeek V3

在线

适合大规模对话与批处理的稳定版 DeepSeek 通用模型。

发布时间
2025
发布时间
2025
最大输出
64K
上下文
160K
价格
$0.080 / $0.280

Cached Input: $0.028

MITOpen Sourcechatbatch

TTFT

160ms

吞吐

120 tok/s

查看模型详情
Qwen

Alibaba

qwen3-32b

Qwen3-32B

在线

适合通用对话、编码与生产助手工作负载的均衡型 Qwen 模型。

发布时间
2026
发布时间
2026
最大输出
32K
上下文
256K
价格
$0.020 / $0.080

Cached Input: $0.007

Apache 2.0Open Sourceqwengeneral

TTFT

220ms

吞吐

94 tok/s

查看模型详情
Qwen

Alibaba

qwen3.5-397b

Qwen3.5-397B-A17B

在线

201 languages

适合多语言推理、编码与大上下文助手的顶级 Qwen MoE 模型。

发布时间
2026
发布时间
2026
最大输出
64K
上下文
256K
价格
$0.100 / $0.050

Cached Input: $0.035

Apache 2.0Open Sourcemultilingualreasoning

TTFT

420ms

吞吐

58 tok/s

查看模型详情
Qwen

Alibaba

qwen3.5-122b

Qwen3.5-122B-A10B

在线

适合长上下文助手与成本敏感生产路由的均衡型 Qwen MoE。

发布时间
2026
发布时间
2026
最大输出
32K
上下文
256K
价格
$0.080 / $0.550

Cached Input: $0.028

Apache 2.0Open Sourceqwenlong-context

TTFT

310ms

吞吐

72 tok/s

查看模型详情
Qwen

Alibaba

qwen3.5-35b

Qwen3.5-35B-A3B

在线

适合产品 Copilot 与高并发助手流量的低成本 Qwen MoE 路线。

发布时间
2026
发布时间
2026
最大输出
32K
上下文
256K
价格
$0.060 / $0.450

Cached Input: $0.021

Apache 2.0Open Sourceqwenmoe

TTFT

220ms

吞吐

94 tok/s

查看模型详情
Qwen

Alibaba

qwen3.5-27b

Qwen3.5-27B

在线

exceeds GPT-5-mini

面向低成本对话、智能体路由与产品 Copilot 的轻量 Qwen 路线。

发布时间
2026
发布时间
2026
最大输出
32K
上下文
256K
价格
$0.070 / $0.500

Cached Input: $0.025

Apache 2.0Open Sourceqwenmid-tier

TTFT

220ms

吞吐

94 tok/s

查看模型详情