OA

OpenAI OSS

gpt-oss-20b

GPT-OSS-20B

轻量级 OpenAI 开源权重模型,适合高速对话、路由与低成本产品能力。

公开模型详情Dense Transformer

参数规模

20B

上下文

131K

最大输出

16K

许可证

Apache 2.0

TTFT

160ms

吞吐

120 tok/s

为什么选它

  • 低成本基线模型
  • 适合高并发 API

价格与差价

层级标准缓存SiliconFlow节省
在线调用$0.01 / $0.06$0.004$0.04 / $0.1875%
批处理$0.01 / $0.03$0.004$0.04 / $0.1875%

快速开始

OpenAI 兼容接口,切换 base_url 即可。

Python
from openai import OpenAI

client = OpenAI(
    base_url="https://api.luminapath.tech/v1",
    api_key="BATCHIN_API_KEY"
)

resp = client.chat.completions.create(
    model="gpt-oss-20b",
    messages=[{"role": "user", "content": "Summarize why this model is a fit for my workload."}]
)

print(resp.choices[0].message.content)
JavaScript
import OpenAI from "openai";

const client = new OpenAI({
  baseURL: "https://api.luminapath.tech/v1",
  apiKey: process.env.BATCHIN_API_KEY,
});

const resp = await client.chat.completions.create({
  model: "gpt-oss-20b",
  messages: [{ role: "user", content: "Summarize why this model is a fit for my workload." }],
});

console.log(resp.choices[0]?.message?.content);
cURL
curl https://api.luminapath.tech/v1/chat/completions \
  -H "Authorization: Bearer $BATCHIN_API_KEY" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "gpt-oss-20b",
    "messages": [{"role":"user","content":"Summarize why this model is a fit for my workload."}]
  }'

规格与行为

架构

Dense Transformer

厂商家族

OpenAI

上下文

131K

最大输出

16K

适用场景

open-source
cheap

相关模型

返回模型中心
OA

OpenAI OSS

gpt-oss-120b

GPT-OSS-120B

OpenAI 开源权重 MoE,适合通用对话、智能体与产品工作流。

查看详情
Qwen

Alibaba

qwen3.5-9b

Qwen3.5-9B

适合成本敏感 API 流量与路由层的紧凑型长上下文 Qwen 模型。

查看详情
BatchIn

StepFun

step-3.5-flash

Step-3.5-Flash

面向低成本高速推理与智能体回路的 StepFun 高流量模型。

查看详情
Z.ai

Z.ai

glm-5.1

GLM-5.1

面向长时自主编码与深度推理的开源旗舰模型。

查看详情