
{{aisd}}
AI生成 免责声明
一只能够帮你完成工作的“龙虾”,也可能成为黑客入侵电脑的入口。

2026年初,一款名为OpenClaw的开源AI智能体迅速走红。短短三个月内,其在GitHub星标数在数周内突破十万,成为增长速度最快的开源AI项目之一。
这款被开发者昵称为“龙虾”的AI助手,可以通过自然语言指令自动处理邮件、安排日程、编写代码,甚至管理个人数字事务。然而,在效率提升的背后,其潜在的安全风险也开始逐渐显现。
01. 爆火背后:从周末实验到现象级项目
OpenClaw的诞生,源于一个简单的想法:让AI从“回答问题”走向“执行任务”。
2025年11月,奥地利软件工程师Peter Steinberger在周末开发了一个小工具,用于通过WhatsApp与AI模型进行交互。这个最初名为ClawdBot的实验项目,在短短三个月内逐渐演变为OpenClaw,并迅速成为GitHub增长速度最快的开源项目之一。
OpenClaw的核心创新在于其“自主执行”能力。与传统聊天机器人不同,它不仅能够回答问题,还可以主动执行一系列任务,例如管理邮件、安排日程、自动化工作流程,甚至编写和部署代码。
在交互方式上,OpenClaw通过WhatsApp、Telegram、Discord等常见即时通讯平台与用户连接,使AI助手能够直接融入日常工作和生活场景。
在国内,这一技术潮流尤为明显。近期,在深圳某大厦附近举办的线下活动中,近千名开发者和AI爱好者排队等待入场,只为现场安装这一工具。在一些互联网社交平台上,也出现了大量“代装OpenClaw”的服务,价格从30元到5000元不等。
02. 安全警报:真实发生的安全事件
随着用户规模迅速扩大,与OpenClaw相关的安全问题也逐渐浮出水面。
工信部发布安全预警
近期,工业和信息化部网络安全威胁和漏洞信息共享平台发布专项安全预警,指出部分OpenClaw实例在默认配置或不当配置情况下存在较高安全风险,可能导致网络攻击或信息泄露。
“ClawJacked”漏洞
2026年2月,某安全公司披露了一项名为“ClawJacked”的高危漏洞。
攻击者只需构造一个看似普通的网页。当用户在运行OpenClaw的同时访问该网页时,恶意脚本便可能通过WebSocket协议绕过防火墙,在极短时间内尝试暴力破解本地AI助手的访问凭证。
问题的根源在于,OpenClaw默认信任来自本机的请求,而攻击者可以借助浏览器这一“合法渠道”,将恶意请求伪装成来自本地的操作。
恶意技能插件泛滥
ClawHub技能市场是OpenClaw生态体系的重要组成部分,同时也成为主要的安全风险来源之一。社区插件中存在一定比例的恶意或高风险技能,部分插件申请的权限远超实际功能需求。
AI误操作导致数据损失
一位AI安全研究人员在社交媒体上分享了真实案例。她曾尝试让OpenClaw协助整理邮箱,但在执行过程中,AI开始批量删除邮件,并未进行任何确认。她不得不迅速终止程序运行,才避免邮件被全部清空。
她形容当时的情况:“就像在拆除炸弹一样紧张,我不得不立刻跑到电脑前强行终止进程。”
03. 风险根源:OpenClaw面临的五大安全挑战
OpenClaw的安全问题并非单一漏洞导致,而是源于架构设计、权限管理和生态体系等多方面因素叠加。本质上,这是AI自主执行能力与传统安全边界之间的冲突。
原生架构与权限设计问题
OpenClaw在运行时通常需要接近系统管理员级别的权限,例如:
- 执行Shell命令
- 读取或修改本地文件
- 控制浏览器
- 访问网络资源
这意味着AI实际上获得了设备的“全局控制能力”。
传统IT安全依赖“最小权限原则”,但在AI多步骤任务执行的场景下,权限边界往往难以提前限定,导致权限滥用风险显著增加。
高危漏洞与远程攻击风险
攻击者可以构造带有恶意参数的链接,诱导用户访问,从而窃取浏览器中的认证令牌,并实现远程代码执行,最终完全控制AI智能体。由于操作方式较为简单,这类攻击往往具有较低门槛。
同时,OpenClaw通常处于长期在线状态,一旦被入侵,攻击者可以持续向系统下发指令,使其成为长期驻留的控制节点。
技能生态带来的供应链风险
ClawHub插件市场目前缺乏严格的安全审核机制,任何开发者都可以上传插件。并且,插件默认继承OpenClaw主程序的全部权限,而非运行在隔离沙箱环境中。
因此,即便是一个简单的天气查询插件,也可能拥有执行Shell命令或读取系统文件的能力。一旦安装恶意插件,攻击者即可获得设备控制权。
AI特有风险:提示词注入
提示词注入(Prompt Injection)被认为是AI系统中的核心攻击方式之一,其风险类似于传统Web系统中的SQL注入。攻击者可以在网页、邮件或文档中嵌入隐藏指令。当OpenClaw读取这些内容时,可能被诱导执行原本不应执行的操作。
数据与凭证泄露风险
OpenClaw默认会将大量敏感信息存储在本地配置文件中,例如:
- LLM API Key
- OAuth令牌
- 数据库密码
- SSH凭证
- 云服务访问密钥

这些信息通常以明文形式存储在本地的配置文件中,并且在某些情况下,文件权限可能过于宽松。
04. 应对策略:从“裸奔龙虾”到“可信助手”
针对上述风险,企业和个人用户应采取系统性的安全防护措施。
架构隔离与最小权限
OpenClaw不应部署在核心业务服务器或常用的个人电脑上。建议通过容器、虚拟机或沙箱环境运行OpenClaw,并限制其系统权限。
网络暴露控制
OpenClaw不应直接暴露在公网环境,建议将网关监听地址从 0.0.0.0 修改为 127.0.0.1,仅允许本地访问。
在此基础上,可以进一步加固默认配置:
- 修改默认端口
- 关闭服务Banner信息
- 使用HTTPS和访问控制机制保护本地网络的访问
凭证与数据保护
用户应定期检查配置文件中的访问令牌,并及时进行更换。
同时建议:
- 避免明文保存敏感凭证
- 启用全盘磁盘加密
- 使用安全密钥管理工具
操作审计与人工确认
对于涉及删除文件、发送邮件或支付操作的任务,应启用人类确认机制(HITL)。
在执行Shell命令前进行安全过滤
插件生态安全管理
在使用技能插件时,应遵循基本原则:
- 避免安装下载量极低的插件
- 不运行需要管理员权限的未知插件
- 不在AI运行状态下随意点击陌生链接
同时,应定期使用官方安全工具进行插件审计。
持续监控与应急响应
应建立AI系统安全监控与响应机制。一旦发现异常行为,应立即:
- 终止相关进程
- 检查异常网络连接
- 封禁可疑IP地址
同时,应保持系统版本更新。OpenClaw当前每周会发布2~3个版本更新,很多更新在改进功能的同时修复了多项安全漏洞,建议用户及时升级。
05. 安永的服务:为企业级AI安全保驾护航
安永网络安全与隐私保护咨询团队,为企业提供全方位的OpenClaw安全解决方案。
安全评估与加固服务:针对企业现有OpenClaw部署环境,进行全面的安全风险评估,识别潜在漏洞和配置缺陷,提供定制化的加固方案。
企业级部署架构设计:基于零信任架构,为企业设计安全的OpenClaw部署方案,包括网络隔离、权限管控、审计日志等完整的安全体系。
持续监控与应急响应:7×24小时安全监控服务,实时检测异常行为,建立快速响应机制,最大限度降低安全事件影响。
员工安全意识培训:针对OpenClaw等AI工具的安全使用,提供专业的培训课程,提升全员安全意识和防护能力。
合规咨询与审计:协助企业满足《网络安全法》《数据安全法》《个人信息保护法》等法规要求,通过等级保护测评等合规审计。
06. 结语
OpenClaw代表了AI从“对话工具”向“执行助手”的重要转变。但技术创新必须建立在安全基础之上。
AI确实可以显著提升效率,但同时也在重新定义数字安全的边界。如何在效率与安全之间取得平衡,将成为未来企业和个人必须面对的重要问题。
作者团队:
高轶峰
主管合伙人
大中华区网络安全与隐私保护咨询服务
安永(中国)企业咨询有限公司
kelvin.gao@cn.ey.com
陈剑光
主管合伙人
大中华区人工智能与数据分析咨询服务
安永(中国)企业咨询有限公司
jianguang.chen@cn.ey.com
左超
总监
大中华区网络安全与隐私保护咨询服务
安永(中国)企业咨询有限公司
chao.zuo@cn.ey.com
本文是为提供一般信息的用途所撰写,并非旨在成为可依赖的会计、税务、法律或其他专业意见。请向您的顾问获取具体意见。
机构认为,指数稳步修复,聚焦油、气、煤能源行业。
2026年第一季度,OpenClaw推动AI行业从技术验证转向商业兑现,中国AI凭借低成本与高效率实现全球Token调用量首次超越美国,标志着规模化商用时代的开启。
香港数字政策办公室关注OpenClaw应用的潜在安全风险,并建议用户采取强化网络控制、加强凭证管理、严格管理插件来源及及时更新补丁等安全措施,同时强调政府已制定多项AI治理与安全指引以规范应用。
智谱启动“龙虾全国部署计划”;OpenAI拟将视频生成工具Sora整合至ChatGPT。
苏州市人工智能行业协会倡议推动OpenClaw走向专业服务,强化安全部署与可信交付,严格落实安全配置、数据隔离、漏洞排查和开发者培训,促进技术创新与安全治理协同推进,营造务实理性的产业发展环境。