중요 AI·응용소프트웨어 界面新闻

AI 에이전트 OpenClaw 보안 취약 경고

전문가 해설

AI 자율 에이전트 OpenClaw가 빠르게 확산되는 가운데, 취약한 기본 보안 설정으로 인해 대규모 보안 리스크가 동시에 확대되고 있다는 점이 핵심입니다. 이번 뉴스는 중국에서 ‘AI 직원’으로 불리는 OpenClaw가 폭발적인 인기를 얻으며 클라우드 원클릭 배포까지 확산됐지만, 보안 취약성으로 인해 국가 차원의 경고와 가이드라인이 발표된 상황을 다루고 있습니다.
보도에 따르면 国家互联网应急中心와 中国网络空间安全协会는 3월 22일 공동으로 보안 가이드를 발표하며 사용자 유형별 대응 방안을 제시했습니다. 일반 사용자에게는 전용 장비나 가상환경에서 설치하고, 관리자 권한 사용을 피하며, 개인정보를 저장하지 말고 최신 버전 업데이트를 유지할 것을 권고했습니다. 클라우드 사업자에게는 인프라 보안 강화, 보안 체계 구축, 공급망 및 데이터 보호 조치 등을 요구했습니다.
문제의 심각성은 실제 수치에서도 드러납니다. 2026년 3월 초 기준 ‘OpenClaw Exposure Watchboard’에는 22만 개 이상의 인스턴스가 인터넷에 노출된 것으로 나타났습니다. 또한 중국 공업정보화부 산하 보안 플랫폼 역시 해당 소프트웨어가 기본 설정 상태에서 높은 보안 위험을 갖고 있다고 경고했습니다. 특히 OpenClaw는 파일 접근, 데이터 처리 등 다양한 작업을 자동 수행하기 위해 높은 시스템 권한을 요구하는데, 이로 인해 설정이 미흡할 경우 데이터 유출이나 시스템 장악 같은 심각한 문제가 발생할 수 있습니다.
이처럼 OpenClaw는 데이터 수집, 분석, 콘텐츠 생성까지 자동화하는 ‘24시간 AI 직원’으로 주목받고 있지만, 동시에 권한 남용과 보안 취약성이라는 구조적 위험을 내포하고 있습니다. 실제로 잘못된 설정이나 공격이 발생할 경우 파일 삭제, 개인정보 유출 등 피해가 현실화될 수 있는 상황입니다.
제가 볼 때 이번 사례는 생성형 AI를 넘어 ‘행동하는 AI(agentic AI)’ 시대로 진입하면서 나타나는 새로운 보안 패러다임을 보여줍니다. 기존 AI는 정보 생성에 그쳤지만, OpenClaw 같은 시스템은 실제로 컴퓨터를 조작하고 작업을 실행하기 때문에 위험 수준이 훨씬 높습니다. 글로벌에서도 OpenAI, Google 등이 유사한 에이전트형 AI를 개발 중인데, 공통적으로 ‘권한 관리’와 ‘샌드박싱’이 핵심 보안 과제로 떠오르고 있습니다. 향후 AI 경쟁은 단순 성능이 아니라 “얼마나 안전하게 통제 가능한가”로 이동할 가능성이 높으며, 이번 중국의 대응은 이러한 흐름을 선제적으로 반영한 것으로 평가됩니다.

요약

국가인터넷응급센터와 중국네트워크공간보안협회가 3월 22일 OpenClaw 보안사용 실천 지침을 발표했습니다. 이 지침은 일반 사용자, 기업 사용자, 클라우드 서비스 공급자 및 기술 개발자에게 보안 방호 추천을 내리게 됩니다.