国内大语言模型API价格汇总和选型

国内大模型 API 价格总览

单位:元/百万 tokens | 输入价格格式:缓存命中价/标准价

厂商 模型 输入价格 输出价格 上下文 特性
DeepSeek V3.2 reasoner(思考) 0.20/2.00 8.0 128K 深度推理
DeepSeek V3.2 chat(非思考) - - 128K 价格未公开
阿里云 qwen-max 0.48/2.40 9.6 - 批量推理更低价
智谱 GLM-4.7 短输出 0.40/2.00 8.0 32K 输出<200tokens
智谱 GLM-4.7 长输出 0.60/3.00 14.0 32K 输出≥200tokens
智谱 GLM-4.7 长上下文 0.80/4.00 16.0 200K 支持200K窗口
Kimi k2.5 多模态 0.70/4.00 21.0 256K 支持视觉输入
Kimi k2-preview 1.00/4.00 16.0 256K 标准生成版
Kimi k2-thinking 1.00/4.00 16.0 256K 思考模式
Kimi k2-turbo 1.00/8.00 58.0 256K 高速版
阿里云 qwen3-max-preview 1.20/6.00 24.0 - 预览版
MiniMax M2.1 2.10 8.4 - 缓存写入2.625
MiniMax M2.1-lightning 2.10 16.8 - 高速版
MiniMax M2 2.10 8.4 - -
阿里云 qwen3-max-0123 2.50 10.0 - 2026新版

选型建议

场景 推荐模型 价格参考 核心优势
极致省钱 DeepSeek reasoner 0.2~10元 缓存命中仅0.2元,且支持深度推理
批量处理 阿里云 qwen-max(批量) 6.0元 批量输入1.2+输出4.8,折扣最大
超长文本 智谱 GLM-4.7(200K) 4~20元 200K上下文,价格远低于Kimi
多模态/视觉 Kimi k2.5 4~25元 唯一支持图像理解,256K上下文
高速响应 DeepSeek V3.2 2~10元 平衡延迟与成本,避免Kimi turbo高价
复杂推理 DeepSeek reasoner 10元 专用思考模式,适合代码/数学题