GLM-5, '가상 엔지니어'로 자율 AI 진화
2월 22일 쯔푸의 GLM-5가 ‘Vibe Coding’을 넘어 ‘Agentic Engineering’을 지향하는 차세대 자율형 AI 모델로 공개되었다는 소식입니다. 이번에 공개된 GLM-5는 기존처럼 사람이 프롬프트를 입력해 코드를 생성하는 보조형 AI를 넘어서, 스스로 계획을 세우고 실행하며 결과를 반복 개선하는 ‘가상 엔지니어’ 수준을 목표로 하고 있습니다. 이를 위해 DeepSeek Sparse Attention(DSA) 기반의 희소 어텐션 구조를 도입해 긴 문맥 처리 효율을 높였고, 모델 규모를 744B 파라미터, 학...
从技术导向而言,此前AI编程范式属于“Vibe Coding”(氛围编程),即程序员手动提示AI生成代码,较为依赖人力,效率有瓶颈。
GLM-5瞄准的是Agentic Engineering(智能体工程),要求AI不再只是辅助工具,而是一个可以自主规划、执行、迭代的“虚拟工程师”。
为了实现这一目标,GLM-5在技术上实现了四大突破:
第一,更高效的模型“大脑”。
GLM-5引入DSA稀疏注意力机制(DeepSeek Sparse Attention,DSA),可以理解为,模型在处理长文本时,不再对每个词都投入同等注意力,而是智能地聚焦在关键信息上。这大幅降低了计算成本,使得模型能用更少的资源处理更长的上下文。
得益于此,智谱将模型参数规模扩展至744B(7440亿),同时将训练token规模提升至28.5T(28.5万亿)。
第二,更快的“学习”方式
。GLM-5构建并完善了一套名为“slime”的异步强化学习基础设施,这是其训练效率取得突破的核心。传统的强化学习训练效率相对较低,slime将“生成任务轨迹”和“模型参数更新”解耦,即将这两个过程分开后同时进行。这就像一边让AI在实践中不断尝试,一边后台同步总结经验教训,极大提升了训练效率。
第三,更聪明的“决策”算法
。GLM-5提出了全新的异步Agent RL算法。这一算法针对动态环境下的规划与自我纠错能力进行了深度优化,这使得模型能够从海量的、多步骤的交互中持续学习,优化其在动态环境中的规划、执行和自我纠错能力。
第四,全面拥抱国产算力生态
。从模型发布伊始,GLM-5就全面兼容七大主流国产芯片平台:华为昇腾、
摩尔线程
、海光、
寒武纪
、昆仑芯、沐曦与燧原,完成从底层内核到上层推理框架的深度优化。
GLM-5发布后,获得了开发者社区的用脚投票。发布之初,智谱以代号“Pony Alpha”在顶级模型平台OpenRouter上进行了匿名盲测,在社区引发了轰动。初步统计显示,25%的用户推测它是Anthropic的Claude Sonnet5,20%认为是Grok的新版本,10%猜是DeepSeek-V4,而其余用户则成功猜中了GLM-5。
“最终确认Pony Alpha真身即是GLM-5,这对我们团队是一次巨大的鼓舞,也有力回击了长期以来外界对中国本土模型技术水准的质疑。”智谱团队表示。
GLM-5折射出的另一趋势,是开源与闭源模型的差距正在被填平。硅谷顶级的风投机构a16z近期发布了一组数据,称开源大模型与顶级闭源模型之间的能力差距,正在以肉眼可见的速度快速收窄。而报告中被选为开源阵营的代表、并与闭源天花板ClaudeOpus4.6进行正面对标的,正是GLM-5。
智谱团队称,开源追赶闭源的战役仍在继续,将坚定不移地探索技术前沿,构建更高效、更智能的底层系统。
作者:
孙小程
海量资讯、精准解读,尽在新浪财经APP
责任编辑:王珂
VIP课程推荐
加载中...
APP专享直播
上一页
下一页
1
/
10
热门推荐
收起
新浪财经公众号
24小时滚动播报最新的财经资讯和视频,更多粉丝福利扫描二维码关注(sinafinance)
相关新闻