Back to Feed
总结
智谱于1月20日发布并开源混合思考模型GLM-4.7-Flash(30B总参数、3B激活),称其面向轻量化部署在性能与效率间取得平衡,并在SWE-bench Verified、τ²-Bench等基准测试中综合表现超过部分同量级模型,获得开源SOTA分数。该模型已在智谱开放平台BigModel.cn上线,即日起替代GLM-4.5-Flash并提供免费调用;GLM-4.5-Flash将于2026年1月30日下线,届时请求将自动路由至新版本,同时公布Hugging Face与魔搭社区开源地址。
正文
IT之家 1 月 20 日消息,智谱 GLM-4.7-Flash 模型今日(1 月 20 日)正式发布并开源。 GLM-4.7-Flash 是一个混合思考模型, 总参数量为 30B,激活参数量为 3B ,宣称作为同级别 SOTA 模型,为轻量化部署提供了一个兼顾性能与效率的新选择。 即日起,GLM-4.7-Flash 将替代 GLM-4.5-Flash,在智谱开放平台 BigModel.cn 上线, 并供免费调用 。 在 SWE-bench Verified、τ²-Bench 等主流基准测试中,GLM-4.7-Flash 的综合表现超过 gpt-oss-20b、Qwen3-30B-A3B-Thinking-2507, 在相同和近似尺寸模型系列中取得开源 SOTA 分数 。 在内部的编程实测中,GLM-4.7-Flash 在前、后端任务上表现出色。在编程场景之外,官方也推荐用户在中文写作、翻译、长文本、情感 / 角色扮演等通用场景中体验 GLM-4.7-Flash。 需要注意的是,上一代免费语言模型 GLM-4.5-Flash 将于 2026 年 1 月 30 日下线 ,用户需要及时将模型编码更新为最新版本。GLM-4.5-Flash 正式下线后,相关请求将会自动路由至 GLM-4.7-Flash。 IT之家附 GLM-4.7-Flash 开源地址如下: Hugging Face: https://huggingface.co/zai-org/GLM-4.7-Flash 魔搭社区: https://modelscope.cn/models/ZhipuAI/GLM-4.7-Flash
发布时间: