近日,开源AI智能体OpenClaw持续出圈,“养龙虾”成为科技圈的热门话题,其可能引发的安全问题同样值得关注。
“这主要归因于OpenClaw极大加速了AI向‘超人化’演进的脚步。”谈及当前全民安装OpenClaw(及其同类AI智能体)主要面临哪些安全风险时,奇安信安全专家汪列军接受广州日报记者采访时表示。
汪列军指出,具体风险集中在以下四点:
首先是权限失控与“越狱”风险。OpenClaw的设计初衷是拥有操作系统的最高权限以执行复杂任务。一旦配置不当或被恶意诱导,由于它具备“超级权限”和“超级能力”,可以轻松突破人类设定的安全围栏。前不久,AI安全领域发生了一件大事,Meta的安全总监在使用OpenClaw清理邮箱的过程中,发现它忽视了“未经批准不得操作”的安全指令,紧急叫停3次OpenClaw都没有停止,直到工作邮件被全部清空,损失惨重。
其次是来自Skill供应链风险。OpenClaw的Skill(插件)拥有的权限包括:文件系统读写、任意代码执行、网络访问,一个Skill拿到的权限甚至比大多数公司员工都大。AI助手(智能体)一旦被人接管,这些权限全归攻击者,各种密码、系统指令、加密钱包、API密钥等将完全暴露,被任意操作。有研究团队对ClawHub的近3000个Skill进行扫描,发现有数百个(确切为341个已确认,潜在超472个)恶意Skill插件,这些恶意插件伪装成“加密货币追踪器”“YouTube助手”“PDF工具”等热门应用,安装后会窃取用户的浏览器Cookie、SSH密钥、API Token,甚至部署信息窃取木马,让电脑沦为黑客“肉机”。
第三是公网暴露与远程入侵风险。许多用户在部署时缺乏安全意识,直接将OpenClaw的管理接口暴露在公网上,且未修改默认凭证或关闭不必要的端口。这使得黑客可以轻易扫描并接管这些“AI助手”,将其作为跳板攻击内网,或直接窃取服务器上的敏感数据。据奇安信网络空间测绘鹰图平台的数据显示,目前暴露在公网的OpenClaw实例超20万,其中大量实例存在弱口令和未授权访问漏洞,随时可能成为黑客的攻击标靶。
最后是数据隐私泄露的风险。由于AI需要读取本地文件、浏览记录甚至代码库来完成任务,若部署在存有个人私密资料(如身份证照、财务数据、公司机密)的主力电脑上,一旦发生上述失控或被黑,所有数据将直接裸奔。工业和信息化部特别提醒,此类应用可能导致敏感信息被非法上传至境外服务器或被恶意程序窃取。
那么,对于普通人而言,如果想体验或使用这类AI助手,有什么安全可靠、低风险的建议和方案?汪列军表示,考虑到OpenClaw这类“AI超人”的超级权限和超级能力,对于普通用户而言,奇安信建议应遵循“物理隔离”和“最小权限”原则,“我强烈建议应禁止在日常办公电脑、存有重要个人资料(照片、文档、账号密码)的个人电脑上直接安装OpenClaw。因为一旦AI失控执行删除操作或被黑客控制,损失将是不可逆的。”
其次,汪列军还建议,使用虚拟机或闲置电脑部署,避免数据隐患,“我们推荐使用更安全的云服务器虚拟机部署,和个人电脑系统实现彻底的物理隔离。即使AI把系统搞崩或被黑客入侵,损失的仅限于云服务器内的环境,而不会波及本地的私人数据和家庭网络。”汪列军补充道,对于个人爱好者而言,还可以找一台旧的、闲置的电脑,或者专门组装一台不含任何重要数据的机器,在确保没有数据泄露和丢失隐患后,专门用于运行OpenClaw。
最后是选择安全可信的Skills来源下载。汪列军建议,到进过安全检测和控制较强的官方和可信Skill来源下载,避免下载来源不明、可能被“投毒”的Skills。同时在本地电脑上增强权限控制,严格限制AI只能访问特定的非敏感文件夹。
文/广州日报新花城记者:张露















































