Baidu

paddleocr-vl-1.5

PaddleOCR-VL-1.5

面向表单、票据、文档和抽取型流水线的 OCR 专用视觉模型。

FREE公开模型详情多模态 Transformer

参数规模

1B OCR

上下文

Document OCR

最大输出

Structured OCR

许可证

Open

TTFT

暂无

暂无 5 分钟基准样本

5 分钟 RPM

暂无

为什么选它

  • 适合文档智能场景
  • 免费公开路线

价格与差价

层级标准缓存SiliconFlow节省
在线调用$0.00 / $0.00暂无暂无暂无
批处理$0.000 / $0.000暂无暂无暂无
免费模型。

生产价格证明

这条路线在真实请求里如何结算

实时执行时,响应头可返回 X-BatchIn-Provider、X-BatchIn-Route-Reason、X-BatchIn-Effective-Cost-Cents 与 X-BatchIn-Uncached-Cost-Cents。
这里的缓存价指 prompt-cache 输入折扣;如果直接命中 durable response cache,会改由 X-BatchIn-Response-Cache-Mode 等响应头与 request lookup 说明。
流式请求先用 X-Request-Id 追踪,待完成后再通过 request lookup 收口最终成本、cache 模式与路由结果。

路线事实源

同页判断价格、请求证据与升级路径

公开标准价、Prompt Cache 折扣价、批处理价与 SiliconFlow 对比全部放在一个详情页。
真实请求会返回 X-Request-Id;同步调用还能直接给出 route reason、billed cost 与 uncached cost。
百因智算 支持 Playground 验证,再进入批处理、白标 API 或专属算力评估。

快速开始

OpenAI 兼容接口,切换 base_url 即可。

Python
from openai import OpenAI

client = OpenAI(
    base_url="https://api.luminapath.tech/v1",
    api_key="BAIYIN_API_KEY"
)

resp = client.chat.completions.create(
    model="paddleocr-vl-1.5",
    messages=[{"role": "user", "content": "Summarize why this model is a fit for my workload."}]
)

print(resp.choices[0].message.content)
JavaScript
import OpenAI from "openai";

const client = new OpenAI({
  baseURL: "https://api.luminapath.tech/v1",
  apiKey: process.env.BAIYIN_API_KEY,
});

const resp = await client.chat.completions.create({
  model: "paddleocr-vl-1.5",
  messages: [{ role: "user", content: "Summarize why this model is a fit for my workload." }],
});

console.log(resp.choices[0]?.message?.content);
cURL
curl https://api.luminapath.tech/v1/chat/completions \
  -H "Authorization: Bearer $BAIYIN_API_KEY" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "paddleocr-vl-1.5",
    "messages": [{"role":"user","content":"Summarize why this model is a fit for my workload."}]
  }'

规格与行为

架构

多模态 Transformer

厂商家族

Baidu

上下文

Document OCR

最大输出

Structured OCR

适用场景

ocr
documents

相关模型

返回模型中心

MiniMax

minimax-m2.5

MiniMax M2.5

适合文本、图像与智能体推理的多模态旗舰模型,编码表现也很强。

查看详情

Z.ai

glm-5.1

GLM-5.1

面向长时自主编码与深度推理的开源旗舰模型。

查看详情

Z.ai

glm-5

GLM-5

更低单价的 GLM 路线,适合生产推理、智能体与长上下文工作流。

查看详情

Z.ai

glm-4.7

GLM-4.7

适合希望降低旗舰成本但仍保持工程推理质量的中高端 GLM 路线。

查看详情
AI 助手