GLM-5, '가상 엔지니어'로 자율 AI 진화
전문가 해설
2월 22일 쯔푸의 GLM-5가 ‘Vibe Coding’을 넘어 ‘Agentic Engineering’을 지향하는 차세대 자율형 AI 모델로 공개되었다는 소식입니다. 이번에 공개된 GLM-5는 기존처럼 사람이 프롬프트를 입력해 코드를 생성하는 보조형 AI를 넘어서, 스스로 계획을 세우고 실행하며 결과를 반복 개선하는 ‘가상 엔지니어’ 수준을 목표로 하고 있습니다.
이를 위해 DeepSeek Sparse Attention(DSA) 기반의 희소 어텐션 구조를 도입해 긴 문맥 처리 효율을 높였고, 모델 규모를 744B 파라미터, 학습 데이터는 28.5T 토큰으로 확대했습니다. 또한 ‘slime’이라는 비동기 강화학습 인프라를 구축해 학습 효율을 크게 개선했으며, 동적 환경에서의 계획·자기 수정 능력을 강화한 비동기 Agent RL(강화학습) 알고리즘을 적용했습니다.
더불어 Huawei, Cambricon, Moore Threads 등 중국산 AI 칩 생태계와 전면 호환을 선언하며 엔비디아 의존도를 낮추는 전략도 함께 제시했습니다. GLM-5는 OpenRouter에서 ‘Pony Alpha’라는 이름으로 블라인드 테스트를 거쳤고, 일부 이용자들은 Anthropic의 Claude나 Grok 신버전으로 추정할 정도로 성능에 대한 평가가 높았다고 전해집니다. 벤처캐피털 Andreessen Horowitz(a16z) 보고서에서는 오픈소스 모델과 폐쇄형 모델 간 격차가 빠르게 줄어들고 있다고 분석하며, GLM-5를 대표 사례로 언급한 점도 주목됩니다.
저의 시각으로 볼 때, 이번 발표는 단순한 모델 업그레이드가 아니라 중국 AI 산업이 ‘성능 추격’ 단계에서 ‘패러다임 전환’ 단계로 이동하고 있음을 보여주는 신호라고 판단됩니다.
최근 중국에서는 DeepSeek 계열 모델의 급부상, Alibaba의 Qwen 시리즈 고도화, Bytedance의 대형 모델 투자 확대 등 대형 테크 기업과 스타트업이 동시에 고성능 모델을 내놓으며 경쟁이 치열해지고 있습니다. 특히 미국의 수출 규제로 첨단 GPU 확보가 어려워진 상황에서 Huawei Ascend, Cambricon, Moore Threads 등 자국 칩과의 최적화를 전면에 내세운 점은 기술 전략이자 산업 정책적 메시지로 읽힙니다. Agentic AI는 단순 질의응답을 넘어 소프트웨어 개발, 자동화 운영, 산업 설계 등 생산성 전반을 재편할 잠재력이 있습니다. 만약 GLM-5가 실제 기업 환경에서 안정적으로 작동한다면, 중국은 오픈소스 진영을 기반으로 글로벌 개발자 생태계를 확장하며 영향력을 넓힐 가능성이 있습니다. 다만 초대형 모델의 추론 비용, 강화학습 안정성, 실제 상용 환경에서의 오류 관리 문제는 여전히 검증이 필요합니다.
이를 위해 DeepSeek Sparse Attention(DSA) 기반의 희소 어텐션 구조를 도입해 긴 문맥 처리 효율을 높였고, 모델 규모를 744B 파라미터, 학습 데이터는 28.5T 토큰으로 확대했습니다. 또한 ‘slime’이라는 비동기 강화학습 인프라를 구축해 학습 효율을 크게 개선했으며, 동적 환경에서의 계획·자기 수정 능력을 강화한 비동기 Agent RL(강화학습) 알고리즘을 적용했습니다.
더불어 Huawei, Cambricon, Moore Threads 등 중국산 AI 칩 생태계와 전면 호환을 선언하며 엔비디아 의존도를 낮추는 전략도 함께 제시했습니다. GLM-5는 OpenRouter에서 ‘Pony Alpha’라는 이름으로 블라인드 테스트를 거쳤고, 일부 이용자들은 Anthropic의 Claude나 Grok 신버전으로 추정할 정도로 성능에 대한 평가가 높았다고 전해집니다. 벤처캐피털 Andreessen Horowitz(a16z) 보고서에서는 오픈소스 모델과 폐쇄형 모델 간 격차가 빠르게 줄어들고 있다고 분석하며, GLM-5를 대표 사례로 언급한 점도 주목됩니다.
저의 시각으로 볼 때, 이번 발표는 단순한 모델 업그레이드가 아니라 중국 AI 산업이 ‘성능 추격’ 단계에서 ‘패러다임 전환’ 단계로 이동하고 있음을 보여주는 신호라고 판단됩니다.
최근 중국에서는 DeepSeek 계열 모델의 급부상, Alibaba의 Qwen 시리즈 고도화, Bytedance의 대형 모델 투자 확대 등 대형 테크 기업과 스타트업이 동시에 고성능 모델을 내놓으며 경쟁이 치열해지고 있습니다. 특히 미국의 수출 규제로 첨단 GPU 확보가 어려워진 상황에서 Huawei Ascend, Cambricon, Moore Threads 등 자국 칩과의 최적화를 전면에 내세운 점은 기술 전략이자 산업 정책적 메시지로 읽힙니다. Agentic AI는 단순 질의응답을 넘어 소프트웨어 개발, 자동화 운영, 산업 설계 등 생산성 전반을 재편할 잠재력이 있습니다. 만약 GLM-5가 실제 기업 환경에서 안정적으로 작동한다면, 중국은 오픈소스 진영을 기반으로 글로벌 개발자 생태계를 확장하며 영향력을 넓힐 가능성이 있습니다. 다만 초대형 모델의 추론 비용, 강화학습 안정성, 실제 상용 환경에서의 오류 관리 문제는 여전히 검증이 필요합니다.
요약
지譜가 22일 GLM-5의 기술 세부 정보를 공개했다. 이에 따라 AI 프로그래밍 방식은 'Agent Engineering'으로 바뀌어 AI가 자체적으로 계획하고 실행하는 'virtually engineer'가 되었다.
2月22日,智谱发布技术报告,全面解读GLM-5的技术细节。
从技术导向而言,此前AI编程范式属于“Vibe Coding”(氛围编程),即程序员手动提示AI生成代码,较为依赖人力,效率有瓶颈。
GLM-5瞄准的是Agentic Engineering(智能体工程),要求AI不再只是辅助工具,而是一个可以自主规划、执行、迭代的“虚拟工程师”。
为了实现这一目标,GLM-5在技术上实现了四大突破:
第一,更高效的模型“大脑”。
GLM-5引入DSA稀疏注意力机制(DeepSeek Sparse Attention,DSA),可以理解为,模型在处理长文本时,不再对每个词都投入同等注意力,而是智能地聚焦在关键信息上。这大幅降低了计算成本,使得模型能用更少的资源处理更长的上下文。
得益于此,智谱将模型参数规模扩展至744B(7440亿),同时将训练token规模提升至28.5T(28.5万亿)。
第二,更快的“学习”方式
。GLM-5构建并完善了一套名为“slime”的异步强化学习基础设施,这是其训练效率取得突破的核心。传统的强化学习训练效率相对较低,slime将“生成任务轨迹”和“模型参数更新”解耦,即将这两个过程分开后同时进行。这就像一边让AI在实践中不断尝试,一边后台同步总结经验教训,极大提升了训练效率。
第三,更聪明的“决策”算法
。GLM-5提出了全新的异步Agent RL算法。这一算法针对动态环境下的规划与自我纠错能力进行了深度优化,这使得模型能够从海量的、多步骤的交互中持续学习,优化其在动态环境中的规划、执行和自我纠错能力。
第四,全面拥抱国产算力生态
。从模型发布伊始,GLM-5就全面兼容七大主流国产芯片平台:华为昇腾、
摩尔线程
、海光、
寒武纪
、昆仑芯、沐曦与燧原,完成从底层内核到上层推理框架的深度优化。
GLM-5发布后,获得了开发者社区的用脚投票。发布之初,智谱以代号“Pony Alpha”在顶级模型平台OpenRouter上进行了匿名盲测,在社区引发了轰动。初步统计显示,25%的用户推测它是Anthropic的Claude Sonnet5,20%认为是Grok的新版本,10%猜是DeepSeek-V4,而其余用户则成功猜中了GLM-5。
“最终确认Pony Alpha真身即是GLM-5,这对我们团队是一次巨大的鼓舞,也有力回击了长期以来外界对中国本土模型技术水准的质疑。”智谱团队表示。
GLM-5折射出的另一趋势,是开源与闭源模型的差距正在被填平。硅谷顶级的风投机构a16z近期发布了一组数据,称开源大模型与顶级闭源模型之间的能力差距,正在以肉眼可见的速度快速收窄。而报告中被选为开源阵营的代表、并与闭源天花板ClaudeOpus4.6进行正面对标的,正是GLM-5。
智谱团队称,开源追赶闭源的战役仍在继续,将坚定不移地探索技术前沿,构建更高效、更智能的底层系统。
作者:
孙小程
海量资讯、精准解读,尽在新浪财经APP
责任编辑:王珂
VIP课程推荐
加载中...
APP专享直播
上一页
下一页
1
/
10
热门推荐
收起
新浪财经公众号
24小时滚动播报最新的财经资讯和视频,更多粉丝福利扫描二维码关注(sinafinance)
相关新闻
从技术导向而言,此前AI编程范式属于“Vibe Coding”(氛围编程),即程序员手动提示AI生成代码,较为依赖人力,效率有瓶颈。
GLM-5瞄准的是Agentic Engineering(智能体工程),要求AI不再只是辅助工具,而是一个可以自主规划、执行、迭代的“虚拟工程师”。
为了实现这一目标,GLM-5在技术上实现了四大突破:
第一,更高效的模型“大脑”。
GLM-5引入DSA稀疏注意力机制(DeepSeek Sparse Attention,DSA),可以理解为,模型在处理长文本时,不再对每个词都投入同等注意力,而是智能地聚焦在关键信息上。这大幅降低了计算成本,使得模型能用更少的资源处理更长的上下文。
得益于此,智谱将模型参数规模扩展至744B(7440亿),同时将训练token规模提升至28.5T(28.5万亿)。
第二,更快的“学习”方式
。GLM-5构建并完善了一套名为“slime”的异步强化学习基础设施,这是其训练效率取得突破的核心。传统的强化学习训练效率相对较低,slime将“生成任务轨迹”和“模型参数更新”解耦,即将这两个过程分开后同时进行。这就像一边让AI在实践中不断尝试,一边后台同步总结经验教训,极大提升了训练效率。
第三,更聪明的“决策”算法
。GLM-5提出了全新的异步Agent RL算法。这一算法针对动态环境下的规划与自我纠错能力进行了深度优化,这使得模型能够从海量的、多步骤的交互中持续学习,优化其在动态环境中的规划、执行和自我纠错能力。
第四,全面拥抱国产算力生态
。从模型发布伊始,GLM-5就全面兼容七大主流国产芯片平台:华为昇腾、
摩尔线程
、海光、
寒武纪
、昆仑芯、沐曦与燧原,完成从底层内核到上层推理框架的深度优化。
GLM-5发布后,获得了开发者社区的用脚投票。发布之初,智谱以代号“Pony Alpha”在顶级模型平台OpenRouter上进行了匿名盲测,在社区引发了轰动。初步统计显示,25%的用户推测它是Anthropic的Claude Sonnet5,20%认为是Grok的新版本,10%猜是DeepSeek-V4,而其余用户则成功猜中了GLM-5。
“最终确认Pony Alpha真身即是GLM-5,这对我们团队是一次巨大的鼓舞,也有力回击了长期以来外界对中国本土模型技术水准的质疑。”智谱团队表示。
GLM-5折射出的另一趋势,是开源与闭源模型的差距正在被填平。硅谷顶级的风投机构a16z近期发布了一组数据,称开源大模型与顶级闭源模型之间的能力差距,正在以肉眼可见的速度快速收窄。而报告中被选为开源阵营的代表、并与闭源天花板ClaudeOpus4.6进行正面对标的,正是GLM-5。
智谱团队称,开源追赶闭源的战役仍在继续,将坚定不移地探索技术前沿,构建更高效、更智能的底层系统。
作者:
孙小程
海量资讯、精准解读,尽在新浪财经APP
责任编辑:王珂
VIP课程推荐
加载中...
APP专享直播
上一页
下一页
1
/
10
热门推荐
收起
新浪财经公众号
24小时滚动播报最新的财经资讯和视频,更多粉丝福利扫描二维码关注(sinafinance)
相关新闻