GLM-Z1-Rumination-32B-0414 是具有沉思能力的深度推理模型(对标 Open AI 的 Deep Research)。不同于一般的深度思考模型,沉思模型通过更长时间的深度思考来解决更开放和复杂的问题(例如:撰写两个城市AI发展对比情况,以及未来的发展规划),沉思模型在深度思考过程中结合搜索工具处理复杂任务,并经过利用多种规则型奖励来指导和扩展端到端强化学习训练得到。Z1-Rumination 在研究型写作和复杂检索任务上的能力得到了显著提升。
write a Python program that shows a ball bouncing inside a spinning hexagon. The ball should be affected by gravity and friction, and it must bounce off the rotating walls realistically
用 HTML 模拟一个小球在从一个旋转中的六边形中心释放后的场景。考虑小球和六边形边框的碰撞和小球受到的重力,并假设碰撞都是完全弹性碰撞
网页设计
GLM-4-32B-0414
GLM-4-32B-0414
设计一个支持自定义函数绘制的绘图板,可以添加和删除自定义函数,并为函数指定颜色
给我设计一个移动端机器学习平台的 UI,其中要包括训练任务,存储管理,和个人统计信息界面。个人信息统计界面要用图表展示用户过去一段时间的各类资源使用情况。使用 Tailwind CSS 来美化页面,把这 3 个手机界面平铺展示到一个 HTML 页面中
@misc{glm2024chatglm,
title={ChatGLM: A Family of Large Language Models from GLM-130B to GLM-4 All Tools},
author={Team GLM and Aohan Zeng and Bin Xu and Bowen Wang and Chenhui Zhang and Da Yin and Diego Rojas and Guanyu Feng and Hanlin Zhao and Hanyu Lai and Hao Yu and Hongning Wang and Jiadai Sun and Jiajie Zhang and Jiale Cheng and Jiayi Gui and Jie Tang and Jing Zhang and Juanzi Li and Lei Zhao and Lindong Wu and Lucen Zhong and Mingdao Liu and Minlie Huang and Peng Zhang and Qinkai Zheng and Rui Lu and Shuaiqi Duan and Shudan Zhang and Shulin Cao and Shuxun Yang and Weng Lam Tam and Wenyi Zhao and Xiao Liu and Xiao Xia and Xiaohan Zhang and Xiaotao Gu and Xin Lv and Xinghan Liu and Xinyi Liu and Xinyue Yang and Xixuan Song and Xunkai Zhang and Yifan An and Yifan Xu and Yilin Niu and Yuantao Yang and Yueyan Li and Yushi Bai and Yuxiao Dong and Zehan Qi and Zhaoyu Wang and Zhen Yang and Zhengxiao Du and Zhenyu Hou and Zihan Wang},
year={2024},
eprint={2406.12793},
archivePrefix={arXiv},
primaryClass={id='cs.CL' full_name='Computation and Language' is_active=True alt_name='cmp-lg' in_archive='cs' is_general=False description='Covers natural language processing. Roughly includes material in ACM Subject Class I.2.7. Note that work on artificial languages (programming languages, logics, formal systems) that does not explicitly address natural-language issues broadly construed (natural-language processing, computational linguistics, speech, text retrieval, etc.) is not appropriate for this area.'}
}
GLM-4-0414 系列模型
👋 加入我们的 Discord, X 和 微信
📍本次开源模型可以在 Z.ai 免费体验;使用 GLM 商业模型服务请到 bigmodel.cn。
Read this in English
项目更新
2025/07/02:我们正式发布 GLM-4.1V-9B-Thinking 系列视觉理解模型,更多信息请查看 GitHub 仓库。2025/04/14: 我们发布 GLM-4-32B-0414 系列模型,规模提升至 32B,包含对话、推理、沉思多种能力的模型。2024/06/18: 我们发布 技术报告, 欢迎查看。2024/06/05: 我们发布GLM-4-9B系列开源模型,其内容可以在这里查看。模型介绍
GLM 家族迎来新一代开源模型 GLM-4-32B-0414 系列,320 亿参数,效果比肩 OpenAI 的 GPT 系列和 DeepSeek 的 V3/R1 系列,且支持非常友好的本地部署特性。GLM-4-32B-Base-0414 经过 15T 高质量数据的预训练,其中包含大量推理类的合成数据,这为后续的强化学习扩展打下了基础。在后训练阶段,除了针对对话场景进行了人类偏好对齐外,我们还通过拒绝采样和强化学习等技术强化了模型在指令遵循、工程代码、函数调用方面的效果,加强了智能体任务所需的原子能力。GLM-4-32B-0414 在工程代码、Artifacts 生成、函数调用、搜索问答及报告等方面都取得了不错的效果,部分 Benchmark 甚至可以媲美更大规模的 GPT-4o、DeepSeek-V3-0324(671B)等模型。
GLM-Z1-32B-0414 是具有深度思考能力的推理模型,这是在 GLM-4-32B-0414 的基础上,通过冷启动和扩展强化学习,以及在数学、代码和逻辑等任务上对模型的进一步训练得到的。相对于基础模型,GLM-Z1-32B-0414 显著提升了数理能力和解决复杂任务的能力。在训练的过程中,我们还引入了基于对战排序反馈的通用强化学习,进一步增强了模型的通用能力。
GLM-Z1-Rumination-32B-0414 是具有沉思能力的深度推理模型(对标 Open AI 的 Deep Research)。不同于一般的深度思考模型,沉思模型通过更长时间的深度思考来解决更开放和复杂的问题(例如:撰写两个城市AI发展对比情况,以及未来的发展规划),沉思模型在深度思考过程中结合搜索工具处理复杂任务,并经过利用多种规则型奖励来指导和扩展端到端强化学习训练得到。Z1-Rumination 在研究型写作和复杂检索任务上的能力得到了显著提升。
最后,GLM-Z1-9B-0414 是一个惊喜。我们沿用上述一系列技术,训练了一个保持开源传统的 9B 小尺寸模型。尽管规模更小,GLM-Z1-9B-0414 在数学推理和通用任务中依然展现出极为优秀的能力,其整体表现已处于同尺寸开源模型中的领先水平。特别是在资源受限的场景下,该模型在效率与效果之间实现了出色的平衡,为追求轻量化部署的用户提供了强有力的选择。
效果展示
动画绘制
网页设计
SVG 生成
分析调研撰写
模型列表
GLM-4-0414 系列模型
GLM-Z1-9B-0414 开源模型 在线体验
🤖 ModelScope
🧩 Modelers
🟣 WiseModel
🤖 ModelScope
🧩 Modelers
🟣 WiseModel
🤖 ModelScope
🧩 Modelers
🟣 WiseModel
🤖 ModelScope
🧩 Modelers
🟣 WiseModel
🤖 ModelScope
🧩 Modelers
🟣 WiseModel
🤖 ModelScope
🧩 Modelers
🟣 WiseModel
GLM-4-9B-0414 由于其较小的模型容量,我们未对其智能体能力进行类似 GLM-4-32B-0414 的强化,主要针对翻译等需要大批量调用的场景进行优化。
* 模型原生采用 32K 上下文进行训练,对于输入 + 输出长度可能超过 32K 的请求,我们建议激活 YaRN 来获得较好的外推性能,详情见部署章节。
以下为 2024 年 6 月 5 日发布的 GLM-4 系列模型,其详细内容可以在这里查看。
🤖 ModelScope
🤖 ModelScope
🟣 WiseModel
🤖 ModelScope
🤖 ModelScope
🟣 WiseModel
🤖 ModelScope
🤖 ModelScope
🟣 WiseModel
评测结果
GLM-4-0414 系列
[1] Moatless v0.0.3 使用如下参数
response_format="react", thoughts_in_action=False, max_interations=30,未对失败轨迹进行重试,其余为默认配置[2] Agentless v1.5.0 其中的 Embedding 模型使用了 BGE,基于FAISS进行相似性检索,为加快patch验证的速度同时尽可能保证效果,将运行单个实例的超时时间从默认的300s修改为180s
[3] OpenHands v0.29.1 未采用 YaRN 上下文扩展,而是限制了最大 60 个 iterations,并对 history 进行 summarization 以防止超出 32K 上下文限制,summarization 配置为
llm_config="condenser", keep_first=1, max_size=32,同样未对失败轨迹进行重试GLM-Z1-0414 系列
模型和提示词实现
模型实现
如果你想查看我们的模型实现,欢迎查看在相关仓库的模型实现 Pull Request,他们已经被合并。
处理长上下文(YaRN)
如果模型的输出 + 输出 token 数可能超过模型的原生上下文长度(GLM-4-0414系列多数为32k),建议开启 YaRN 来获得更好的长上下文建模能力。对于支持的框架,你可以在对应的
config.json中修改。具体地,对于 GLM-Z1 系列模型,当输入长度超过 8,192 tokens 时,考虑启用 YaRN(Rope Scaling)。对于多数用户请求,如果输出 + 输出 token 数不会超过原生上下文长度,则无需任何修改。
模型微调
可以在
finetune/README.md下找到模型的微调所需算力信息和案例的微调脚本。可以通过以下命令开启一个简单的模型微调案例
🎉 脚本也支持使用SwanLab进行微调可视化跟踪,可以访问SwanLab可视化看板获得案例微调脚本的训练日志。
提示词实现
如果你使用
transformers库提供的apply_chat_template方法构建提示词。以下是对不同 GLM-4-0414 模型中系统提示词的限制。GLM-4-32B-Base-0414: 基座模型,无对话模板。GLM-4-*-0414/GLM-Z1-*-0414: 如果传入tools,则由apply_chat_template填充工具到chat_template中的固定模板,单独作为一条带有tools绑定的system字段信息并拼接于messages[0]。原本传入的所有messages自动往后移动一个位置。GLM-Z1-Rumination-32B-0414:不支持自定义系统提示词,不支持自定义工具,你的所有
tools和system字段会被apply_chat_template忽略。使用该模型需要外接搜索引擎或者自定义retrieval API。一共支持四个工具,分别是
chat_template中的固定模板使用英文思过程,如果要更换其他语言,需要修改以下部分(暂时支持中文和英文)GLM-4-0414 系列模型的提示词构造可以前往对应的模型仓库中的
chat_template.jinja查看具体的模型对话模板。引用
如果你觉得我们的工作有帮助的话,请考虑引用下列论文。