IPO早知道 2025-07-29 15:58 6070阅读
GLM-4.5是一款面向推理、代码与智能体的开源SOTA模型。
据IPO早知道消息,智谱于7月28日正式发布新一代旗舰模型 GLM-4.5,一款专为智能体应用打造的基础模型。Hugging Face 与 ModelScope 平台同步开源,模型权重遵循 MIT License。
不可否认的是,衡量 AGI 的第一性原理,是在不损失原有能力的前提下融合更多通用智能能力,而GLM-4.5 就是智谱对这一理念的首次完整呈现,并有幸取得技术突破。GLM-4.5 首次在单个模型中实现将推理、编码和智能体能力原生融合,以满足智能体应用的复杂需求。
换言之,GLM-4.5 在包含推理、代码、智能体的综合能力达到开源 SOTA。
具体来讲,GLM-4.5采用混合专家(MoE)架构,包括 GLM-4.5:总参数量 3550 亿,激活参数 320 亿;GLM-4.5-Air:总参数 1060 亿,激活参数 120 亿;同时,GLM-4.5还提供两种模式:用于复杂推理和工具使用的思考模式,及用于即时响应的非思考模式。
为综合衡量模型的通用能力,智谱选择了最具有代表性的 12 个评测基准,包括 MMLU Pro、AIME 24、MATH 500、SciCode、GPQA 、HLE、LiveCodeBench、SWE-Bench Verified、Terminal-Bench、TAU-Bench、BFCL v3 和 BrowseComp。综合平均分,GLM-4.5 取得了全球模型第三、国产模型第一,开源模型第一。
值得注意的是,GLM-4.5 参数量为 DeepSeek-R1 的 1/2、Kimi-K2 的 1/3,但在多项标准基准测试中表现得更为出色,这得益于 GLM 模型的更高参数效率。在衡量模型代码能力的 SWE-bench Verified 榜单上,GLM-4.5 系列位于性能/参数比帕累托前沿,表明在相同规模下 GLM-4.5 系列实现了最佳性能。
在性能优化之外,GLM-4.5 系列也在成本和效率上实现突破,由此带来远低于主流模型定价:API 调用价格低至输入 0.8 元/百万 tokens,输出 2 元/百万 tokens。
为评测 GLM-4.5 在真实场景 Agent Coding 中的效果,智谱接入 Claude Code 与 Claude-4-Sonnet、Kimi-K2、Qwen3-Coder 进行对比测试。测试采用 52 个编程开发任务,涵盖六大开发领域,在独立容器环境中进行多轮交互测试。
实测结果显示,GLM-4.5 相对其他开源模型展现出竞争优势,特别在工具调用可靠性和任务完成度方面表现突出。尽管 GLM-4.5 相比 Claude-4-Sonnet 仍有提升空间,在大部分场景中可以实现平替的效果。
此外,得益于模型原生具备的在前端编写网站、在后端进行数据库管理,以及通过工具调用接口支持任意的智能体应用等能力,GLM-4.5 系列能胜任全栈开发任务,编写复杂应用、游戏、交互网页。
事实上,智谱在7月取得了多项模型突破——7月初,智谱开源发布新一代通用视觉语言模型GLM-4.1V-Thinking,以推理能力为核心突破,刷新10B级别多模态模型性能上限。
其中,轻量版GLM-4.1V-9B-Thinking模型参数控制在10B级别,在兼顾部署效率的同时实现性能突破。该模型在MMStar、MMMU-Pro、ChartQAPro、OSWorld等28项权威评测中,有23项达成10B级模型的最佳成绩,其中18项更是持平或超越参数量高达72B的Qwen-2.5-VL,充分展现了小体积模型的极限性能潜力。
凭借9B的模型尺寸,GLM-4.1V-9B-Thinking还成功登顶了HuggingFace Trending第一。
显然,智谱仍持续在探索AGI的上限,这也就不难理解OpenAI将智谱列为其全球竞争对手。
另据OpenAI日前最新发布的分析报告,智谱的海外业务同样进展迅速,现已为越南、印度尼西亚、马来西亚、新加坡等东南亚国家,阿联酋、沙特阿拉伯等中东国家以及肯尼亚等非洲国家的政企提供基础设施解决方案。
在OpenAI看来,智谱的目标是赶在欧、美竞争对手之前,让中国企业的AI体系率先落地于新兴市场,并展现出一种“可验证、负责任、标准化”的技术形象。
本月月底,GPT-5预计将面世。
本文为IPO早知道原创
作者|Stone Jin
本文来源:IPO早知道
来源:IPO早知道
点击下载App参与更多互动