AI 에이전트 OpenClaw 보안 취약 경고
전문가 해설
AI 자율 에이전트 OpenClaw가 빠르게 확산되는 가운데, 취약한 기본 보안 설정으로 인해 대규모 보안 리스크가 동시에 확대되고 있다는 점이 핵심입니다. 이번 뉴스는 중국에서 ‘AI 직원’으로 불리는 OpenClaw가 폭발적인 인기를 얻으며 클라우드 원클릭 배포까지 확산됐지만, 보안 취약성으로 인해 국가 차원의 경고와 가이드라인이 발표된 상황을 다루고 있습니다.
보도에 따르면 国家互联网应急中心와 中国网络空间安全协会는 3월 22일 공동으로 보안 가이드를 발표하며 사용자 유형별 대응 방안을 제시했습니다. 일반 사용자에게는 전용 장비나 가상환경에서 설치하고, 관리자 권한 사용을 피하며, 개인정보를 저장하지 말고 최신 버전 업데이트를 유지할 것을 권고했습니다. 클라우드 사업자에게는 인프라 보안 강화, 보안 체계 구축, 공급망 및 데이터 보호 조치 등을 요구했습니다.
문제의 심각성은 실제 수치에서도 드러납니다. 2026년 3월 초 기준 ‘OpenClaw Exposure Watchboard’에는 22만 개 이상의 인스턴스가 인터넷에 노출된 것으로 나타났습니다. 또한 중국 공업정보화부 산하 보안 플랫폼 역시 해당 소프트웨어가 기본 설정 상태에서 높은 보안 위험을 갖고 있다고 경고했습니다. 특히 OpenClaw는 파일 접근, 데이터 처리 등 다양한 작업을 자동 수행하기 위해 높은 시스템 권한을 요구하는데, 이로 인해 설정이 미흡할 경우 데이터 유출이나 시스템 장악 같은 심각한 문제가 발생할 수 있습니다.
이처럼 OpenClaw는 데이터 수집, 분석, 콘텐츠 생성까지 자동화하는 ‘24시간 AI 직원’으로 주목받고 있지만, 동시에 권한 남용과 보안 취약성이라는 구조적 위험을 내포하고 있습니다. 실제로 잘못된 설정이나 공격이 발생할 경우 파일 삭제, 개인정보 유출 등 피해가 현실화될 수 있는 상황입니다.
제가 볼 때 이번 사례는 생성형 AI를 넘어 ‘행동하는 AI(agentic AI)’ 시대로 진입하면서 나타나는 새로운 보안 패러다임을 보여줍니다. 기존 AI는 정보 생성에 그쳤지만, OpenClaw 같은 시스템은 실제로 컴퓨터를 조작하고 작업을 실행하기 때문에 위험 수준이 훨씬 높습니다. 글로벌에서도 OpenAI, Google 등이 유사한 에이전트형 AI를 개발 중인데, 공통적으로 ‘권한 관리’와 ‘샌드박싱’이 핵심 보안 과제로 떠오르고 있습니다. 향후 AI 경쟁은 단순 성능이 아니라 “얼마나 안전하게 통제 가능한가”로 이동할 가능성이 높으며, 이번 중국의 대응은 이러한 흐름을 선제적으로 반영한 것으로 평가됩니다.
보도에 따르면 国家互联网应急中心와 中国网络空间安全协会는 3월 22일 공동으로 보안 가이드를 발표하며 사용자 유형별 대응 방안을 제시했습니다. 일반 사용자에게는 전용 장비나 가상환경에서 설치하고, 관리자 권한 사용을 피하며, 개인정보를 저장하지 말고 최신 버전 업데이트를 유지할 것을 권고했습니다. 클라우드 사업자에게는 인프라 보안 강화, 보안 체계 구축, 공급망 및 데이터 보호 조치 등을 요구했습니다.
문제의 심각성은 실제 수치에서도 드러납니다. 2026년 3월 초 기준 ‘OpenClaw Exposure Watchboard’에는 22만 개 이상의 인스턴스가 인터넷에 노출된 것으로 나타났습니다. 또한 중국 공업정보화부 산하 보안 플랫폼 역시 해당 소프트웨어가 기본 설정 상태에서 높은 보안 위험을 갖고 있다고 경고했습니다. 특히 OpenClaw는 파일 접근, 데이터 처리 등 다양한 작업을 자동 수행하기 위해 높은 시스템 권한을 요구하는데, 이로 인해 설정이 미흡할 경우 데이터 유출이나 시스템 장악 같은 심각한 문제가 발생할 수 있습니다.
이처럼 OpenClaw는 데이터 수집, 분석, 콘텐츠 생성까지 자동화하는 ‘24시간 AI 직원’으로 주목받고 있지만, 동시에 권한 남용과 보안 취약성이라는 구조적 위험을 내포하고 있습니다. 실제로 잘못된 설정이나 공격이 발생할 경우 파일 삭제, 개인정보 유출 등 피해가 현실화될 수 있는 상황입니다.
제가 볼 때 이번 사례는 생성형 AI를 넘어 ‘행동하는 AI(agentic AI)’ 시대로 진입하면서 나타나는 새로운 보안 패러다임을 보여줍니다. 기존 AI는 정보 생성에 그쳤지만, OpenClaw 같은 시스템은 실제로 컴퓨터를 조작하고 작업을 실행하기 때문에 위험 수준이 훨씬 높습니다. 글로벌에서도 OpenAI, Google 등이 유사한 에이전트형 AI를 개발 중인데, 공통적으로 ‘권한 관리’와 ‘샌드박싱’이 핵심 보안 과제로 떠오르고 있습니다. 향후 AI 경쟁은 단순 성능이 아니라 “얼마나 안전하게 통제 가능한가”로 이동할 가능성이 높으며, 이번 중국의 대응은 이러한 흐름을 선제적으로 반영한 것으로 평가됩니다.
요약
국가인터넷응급센터와 중국네트워크공간보안협회가 3월 22일 OpenClaw 보안사용 실천 지침을 발표했습니다. 이 지침은 일반 사용자, 기업 사용자, 클라우드 서비스 공급자 및 기술 개발자에게 보안 방호 추천을 내리게 됩니다.
OpenClaw(“小龙虾”)应用下载与使用情况火爆,国内主流云平台均提供了一键部署服务。然而,由于其默认的安全配置极为脆弱,攻击者一旦发现突破口,便能轻易获取系统的完全控制权。
据新华社报道,国家互联网应急中心、中国网络空间安全协会为此于3月22日联合发布OpenClaw安全使用实践指南,面向普通用户、企业用户、云服务商以及技术开发者等,提出安全防护建议。
其中,对于普通用户的建议包括:使用专用设备、虚拟机或容器安装OpenClaw,并做好环境隔离,不宜在日常办公电脑上安装;不使用管理员或超级用户权限运行OpenClaw;不在OpenClaw环境中存储、处理隐私数据;及时更新OpenClaw最新版本等。
对于云服务商,建议包括做好云主机基础安全层面的安全评测与加固;做好安全防护能力部署、接入;做好供应链及数据安全防护。
OpenClaw被不少用户视为“7×24小时工作的AI员工”。抓取数据、分析信息、生成内容——一整套工作流程,它都能够自动化完成。
2026年3月初,一个名为OpenClaw Exposure Watchboard的监控页面列出了超过二十二万个暴露在公网的实例。工信部网络安全威胁和漏洞信息共享平台也发布预警,指出部分实例在默认或不当配置下存在较高安全风险。
首当其冲的是权限与隐私。作为能自主执行任务的AI智能体,
OpenClaw
需要用户提供极高权限来调动本地资源。这意味着设备里的敏感信息在它面前近乎透明。一旦配置不当或遭到恶意利用,误删文件、泄露数据都可能发生。
3月8日,工信部网络安全威胁和漏洞信息共享平台发布预警,指出OpenClaw
部分实例
在默认或不当配置下存在高危安全风险;3月10日,国家互联网应急中心发布安全风险提示,直指该工具默认配置脆弱、权限过高带来的网络与数据隐患。
据新华社报道,国家互联网应急中心、中国网络空间安全协会为此于3月22日联合发布OpenClaw安全使用实践指南,面向普通用户、企业用户、云服务商以及技术开发者等,提出安全防护建议。
其中,对于普通用户的建议包括:使用专用设备、虚拟机或容器安装OpenClaw,并做好环境隔离,不宜在日常办公电脑上安装;不使用管理员或超级用户权限运行OpenClaw;不在OpenClaw环境中存储、处理隐私数据;及时更新OpenClaw最新版本等。
对于云服务商,建议包括做好云主机基础安全层面的安全评测与加固;做好安全防护能力部署、接入;做好供应链及数据安全防护。
OpenClaw被不少用户视为“7×24小时工作的AI员工”。抓取数据、分析信息、生成内容——一整套工作流程,它都能够自动化完成。
2026年3月初,一个名为OpenClaw Exposure Watchboard的监控页面列出了超过二十二万个暴露在公网的实例。工信部网络安全威胁和漏洞信息共享平台也发布预警,指出部分实例在默认或不当配置下存在较高安全风险。
首当其冲的是权限与隐私。作为能自主执行任务的AI智能体,
OpenClaw
需要用户提供极高权限来调动本地资源。这意味着设备里的敏感信息在它面前近乎透明。一旦配置不当或遭到恶意利用,误删文件、泄露数据都可能发生。
3月8日,工信部网络安全威胁和漏洞信息共享平台发布预警,指出OpenClaw
部分实例
在默认或不当配置下存在高危安全风险;3月10日,国家互联网应急中心发布安全风险提示,直指该工具默认配置脆弱、权限过高带来的网络与数据隐患。