BatchIn

Google

gemma-4-27b

Gemma 4 27B

新的 Google 多模态开放模型,当前以 BatchIn 独家形式进入公开目录。

NEW公开模型详情多模态 Transformer

参数规模

27B

上下文

128K

最大输出

32K

许可证

Apache 2.0

TTFT

220ms

吞吐

94 tok/s

为什么选它

  • 2026 年 4 月新发布
  • 开放权重多模态选项

价格与差价

层级标准缓存SiliconFlow节省
在线调用预览阶段价格可按需提供。暂无暂无暂无
批处理同标准价暂无暂无暂无
预览阶段价格可按需提供。

快速开始

OpenAI 兼容接口,切换 base_url 即可。

Python
from openai import OpenAI

client = OpenAI(
    base_url="https://api.luminapath.tech/v1",
    api_key="BATCHIN_API_KEY"
)

resp = client.chat.completions.create(
    model="gemma-4-27b",
    messages=[{"role": "user", "content": "Summarize why this model is a fit for my workload."}]
)

print(resp.choices[0].message.content)
JavaScript
import OpenAI from "openai";

const client = new OpenAI({
  baseURL: "https://api.luminapath.tech/v1",
  apiKey: process.env.BATCHIN_API_KEY,
});

const resp = await client.chat.completions.create({
  model: "gemma-4-27b",
  messages: [{ role: "user", content: "Summarize why this model is a fit for my workload." }],
});

console.log(resp.choices[0]?.message?.content);
cURL
curl https://api.luminapath.tech/v1/chat/completions \
  -H "Authorization: Bearer $BATCHIN_API_KEY" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "gemma-4-27b",
    "messages": [{"role":"user","content":"Summarize why this model is a fit for my workload."}]
  }'

规格与行为

架构

多模态 Transformer

厂商家族

BatchIn Exclusive

上下文

128K

最大输出

32K

适用场景

exclusive
multimodal

相关模型

返回模型中心
BatchIn

Meta

llama-4-maverick

Llama 4 Maverick

适合记忆型智能体、检索层与多模态产品规划的 Meta 大上下文模型。

查看详情
MiniMax

MiniMax

minimax-m2.5

MiniMax M2.5

适合文本、图像与智能体推理的多模态旗舰模型,编码表现也很强。

查看详情
Qwen

Alibaba

qwen3-vl-32b

Qwen3-VL-32B

适合文档理解、多模态对话与图像条件工作流的视觉版 Qwen 模型。

查看详情
Z.ai

Z.ai

glm-5.1

GLM-5.1

面向长时自主编码与深度推理的开源旗舰模型。

查看详情