GLM-5 模型中心

GLM-5:Benchmark、Price、API 与 Architecture

评估 GLM-5 能力上限,对比 benchmark 分数,查看 API 价格,探索 架构细节 — 一站式完成。

总参数

744B

激活 MoE

40B

上下文窗口

200K

许可证

MIT

社区声音

大家怎么评价 GLM-5

来自 AI 社区的深度评测和教程视频,展示 GLM-5 的核心能力。

GLM-5 Fully Tested: I GOT EARLY ACCESS & YES, IT BEATS 4.6 OPUS!

完整实测覆盖编码质量、多步任务执行,以及在 Agent 编码基准中的多模型对比。

AICodeKing

44.2K views · 2026-02-11

GLM-5 Is HERE – Is THIS the BEST Open Source Coding Model?

以浏览器自动化、游戏生成和 Python 3D 任务做实操演示,评估真实代码生成质量。

Bijan Bowen

15K views · 2026-02-11

GLM-5: From Vibe Coding to Agentic Engineering

从快速编码提示到 Agent 工程管线的用例演示,探索 GLM-5 真实部署路径。

Fahd Mirza

3.5K views · 2026-02-11

概览

什么是 GLM-5

GLM-5 是智谱 AI 第五代大语言模型,面向复杂系统工程与长周期 Agent 任务。从 GLM-4.5 的 355B/32B 激活参数升级到 744B/40B 激活,预训练数据从 23T 提升到 28.5T tokens。

统一混合推理

Think / Non-think 共享同一模型底座,通过后训练策略区分推理风格。

长上下文与成本优化

DeepSeek Sparse Attention 降低推理成本,同时保留 200K 上下文处理能力。

开源 + API 双路径

GLM-5 权重已在 Hugging Face / ModelScope 发布,采用 MIT 许可证,同时支持多平台 API 接入。

架构

GLM-5 架构

GLM-5 采用统一模型架构,支持混合推理模式切换。Think / Non-think 共享同一底座,配合 DSA 长上下文优化与 slime 异步 RL 训练基建。

1

744B

总参数

2

40B

激活参数

3

28.5T Tokens

预训练数据

4

统一 Think/Non-think

推理模式

Stage
#1

统一模型底座

GLM-5 使用单一统一底座,无需在思考与非思考场景间切换不同模型。

Stage#2

后训练模式分化

Think 与 Non-think 的差异来自后训练阶段,便于在质量与延迟之间灵活配置。

Stage#3

混合推理开关

支持按任务复杂度灵活启用混合推理模式,适配不同部署场景。

Stage#4

DSA 长上下文优化

DeepSeek Sparse Attention 在长上下文任务中降低推理成本,提升大输入序列处理效率。

Stage#5

异步 RL 训练基建

slime 框架提供异步强化学习能力,提高训练吞吐量并加快迭代周期。

Stage#6

函数调用与并行工具

GLM-5 支持 Function Calling 和并行工具调用,适配复杂多步 Agent 工作流。

上下文窗口

GLM-5 上下文窗口

GLM-5 在不同主流平台的上下文窗口与输出上限,不同平台展示的实际限制可能存在差异。

1

200K context / 最高 128K output

GLM-5(docs.z.ai)

2

202,752 context

GLM-5(OpenRouter)

3

最高 202,752

OpenRouter 最大完成

4

不同端点限制可能不同

平台差异说明

Stage#1

长文档与多文件任务

200K 上下文窗口可支撑长文档问答、跨文件代码分析和多轮计划执行。

Stage#2

输出上限可控

官方文档中 GLM-5 支持最高 128K 输出 tokens;不同平台与端点的实际输出上限可能不同。

Stage#3

平台展示差异

202,752 context 来自 OpenRouter 模型页,生产接入请核对目标平台实测限制。

Benchmark

GLM-5 Benchmark 总览

公开 benchmark 图表覆盖 Agentic、Reasoning、Coding 与 Long-horizon 任务,便于横向模型比较。

数据来源:docs.z.ai 与 z.ai/blog/glm-5,抓取日期 2026-02-12

GLM-4.7GLM-5Claude Opus 4.5Gemini 3.0 ProGPT-5.2

LLM Performance Evaluation

8 项公开 benchmark:Humanity's Last Exam、SWE-bench、Terminal-Bench、MCP-Atlas、Vending Bench 2 等。

GLM-5 benchmark 对比总览

CC-Bench-V2

真实工程场景下的 Frontend、Backend 与 Long-horizon 对比图。

GLM-5 CC-Bench-V2 benchmark 图表

77.8

SWE-bench Verified

GLM-5 在 SWE-bench Verified 上的得分,衡量真实代码修复能力。

73.3

SWE-bench Multilingual

多语言软件工程任务中的表现分数。

56.2

Terminal-Bench 2.0

终端代理任务基准分数,衡量命令行任务完成能力。

$4,432

Vending Bench 2

GLM-5 在商业模拟 benchmark 中达到的最终余额。

API 价格

GLM-5 API 价格对比

价格来自 docs.z.ai 与 OpenRouter,数据截至 2026-02-12。此处统一按 USD 展示,上线前请再次核对各平台最新报价。

1

$1.00 / 1M tokens

GLM-5 输入

2

$0.20 / 1M tokens

GLM-5 缓存输入

3

$3.20 / 1M tokens

GLM-5 输出

4

$1.20 输入 / $5.00 输出

GLM-5-Code

Stage#1

GLM-5 via docs.z.ai

输入 $1.00 / 1M、缓存输入 $0.20 / 1M、输出 $3.20 / 1M,美元计价。

Stage
#2

GLM-5-Code via docs.z.ai

输入 $1.20 / 1M、缓存输入 $0.30 / 1M、输出 $5.00 / 1M,美元计价。

Stage
#3

缓存存储费用

官方价格页标注 Cached Input Storage 为限时免费。

Stage#4

GLM-5 via OpenRouter

OpenRouter 页面显示 $1 / 1M 输入、$3.20 / 1M 输出,美元计价。

Stage#5

统一计价单位

docs.z.ai 与 OpenRouter 均以每 1M tokens 为单位展示价格,接入前请核对平台计费粒度。

Stage#6

平台账单差异

跨平台最终账单可能受路由策略、平台加价与缓存行为影响。

价值

为什么团队在 2026 年评估 GLM-5

GLM-5 在系统工程负载、长周期 Agent 任务、竞争力价格与超低幻觉率方面表现突出。

GLM-5 面向复杂系统工程与高复杂度执行工作流,支持多步工具调用。

FAQ

GLM-5 常见问题

关于 GLM-5 benchmark、API 价格、上下文窗口与模型能力的常见问题。

1

GLM-5 API 价格是多少?

截至 2026-02-12,docs.z.ai 上 GLM-5 为输入 $1.00/1M、缓存输入 $0.20/1M、输出 $3.20/1M;GLM-5-Code 为输入 $1.20/1M、缓存输入 $0.30/1M、输出 $5.00/1M。OpenRouter 上 GLM-5 为 $1/1M 输入、$3.20/1M 输出。

2

GLM-5 的上下文窗口多大?

官方文档显示 GLM-5 支持 200K 上下文窗口、最高 128K 输出。OpenRouter 当前展示 202,752 context;不同平台端点的实际限制可能不同。

3

GLM-5 是 MoE 模型吗?

是的。GLM-5 总参数 744B,每个 token 激活 40B,采用 256 个专家、每次激活 8 个的稀疏 MoE 架构。

4

GLM-5 和其他前沿模型比表现如何?

GLM-5 在 SWE-bench Verified 上得分 77.8。公开对比图中,Claude Opus 4.5 为 80.9,Gemini 3.0 Pro 为 76.2。GLM-5 在 Vending Bench 2 中排名开源权重模型第一。

5

OpenRouter 价格为什么和 api.z.ai 不一样?

OpenRouter 是路由平台,可能存在平台级路由与加价策略。上线前请分别核对各平台的最终计费规则与单位。

6

GLM-5 权重是否开源?

是的。GLM-5 权重已在 Hugging Face 和 ModelScope 发布,MIT 许可证,支持 vLLM、SGLang 本地部署。

GLM-5 Benchmark、Price、API 与 Architecture | GLM5 Online