[新闻] “养虾先剪脚” 多方发力布局智能体安全| 数博会官网

“养虾先剪脚” 多方发力布局智能体安全

作者: 吴蔚    来源: 经济参考报   编辑: 杨小婷  时间:2026-05-07 15:30:04  

  智能体“龙虾”(OpenClaw)高危漏洞集中暴露、技能包投毒攻击活跃……近期,AI智能体安全引发全行业高度关注。多位人工智能行业专家与安全业界人士表示,“养虾须先剪脚”,防患于未然,已成为推动AI产业健康有序发展的关键,政府、行业、企业等多方力量已同步发力,展开对智能体安全全方位布局。

  根据国家信息安全漏洞库(CNNVD)统计,4月14日至28日共采集OpenClaw漏洞111个,其中超危漏洞2个、高危漏洞38个,包含了访问控制错误、代码问题、路径遍历等多个漏洞类型。此前,OpenClaw已因多项高中危安全漏洞被国家互联网应急中心、工信部网络安全威胁和漏洞信息共享平台连续发布风险预警;国家计算机病毒应急处理中心也监测到大量内含木马病毒的仿冒“龙虾”技能包,给用户数据安全和系统稳定带来严重隐患。

  智能体的安全风险已成为全球行业共识。OWASP基金会此前发布的《智能体应用十大安全威胁》将智能体目标劫持、工具滥用等列为核心威胁;机构Gartner在《应用安全策略2026》中更是预测,到2028年,25%的企业数据泄露事件将可追溯至智能体滥用,涉及外部攻击者的恶意渗透和内部人员的违规操作。

  “OpenClaw这类智能体,未来有望成为新一代操作系统。”亚信联合创始人田溯宁表示,企业核心资产正从传统的人员、软件、代码,逐步转向数据、智能体及相关技能,“未来企业的核心资产大多存储在电脑和服务器中,这些资产的归属权与安全防护,已成为亟待解决的重要课题。”

  面对智能体的安全痛点,不同领域企业纷纷发力,构建起多元化安全防护体系。涂鸦智能CSO刘龙威透露,涂鸦智能已为全员配备基于OpenClaw改造的“数字员工”,去年公司70%的代码由AI完成撰写。但他也坦言,企业面临的安全压力也随之剧增。为此,涂鸦智能构建了六道安全防线,包括系统加固、安全管理流程、身份安全、运行时检测、供应链安全、自动化安检等。

  “切勿让员工在企业工作环境中‘散养虾’,这难以管控安全风险和数据泄露隐患。”阿里云运营商行业线首席架构师梁洪伟建议,企业应采用弹性云端部署模式,并遵循三大行动准则:坚持安全合规先行,严格落实最小权限原则;优先试点个人场景,鼓励内部创新探索;推动生态共建共享,联合合作伙伴打造安全可控的工具市场。

  安全厂商也积极发挥技术优势,助力AI智能体安全防护。面对AI智能体频繁出现的“幻觉”越权与权限失控难题,亚信安全智能体安全专家焦正新指出,智能体风险的根源在于其“智能涌现”的同时带来原生不确定性,这导致了身份体系和授权平面的崩塌。他表示,为此亚信安全推出了智能体信任框架ATF,将“智能体意图对齐+人机共治”的理念融入安全治理。“企业不能沿用‘一次认证,永久信任’的旧模式,而是要将智能体作为‘数字员工’进行全生命周期管理,遵循‘权柄代持、意图对齐’原则。”从而将随机性引发的风险置于可控范围,在释放AI生产力的同时守住合规底线。

  在企业积极探索实践的同时,政府监管与行业标准也在加速完善,为智能体安全保驾护航。今年4月,国家网信办等五部门联合公布《人工智能拟人化互动服务管理暂行办法》,明确对人工智能服务实行包容审慎、分类分级监管,提出安全评估、算法备案、推动人工智能沙箱安全服务平台建设等制度,这也是我国首次在人工智能专门立法层面,明确提出“人工智能沙箱”治理理念。与此同时,工信部等十部门联合印发《人工智能科技伦理审查与服务办法(试行)》,将科技伦理审查程序规范化,明确要求保障模型系统的鲁棒性、可控可信、透明可解释及责任可追溯。

  行业标准建设方面,人工智能安全标准体系正加速构建。今年3月,工信部公开征求《人工智能安全治理模型上下文协议应用安全要求》等行业标准意见;4月,全国网络安全标准化技术委员会下设的人工智能安全标准工作组明确表示,将重点推动《网络安全技术人工智能安全能力成熟度评估方法》《网络安全技术人工智能应用安全分类分级方法》等核心标准的制定与落地,为行业安全发展划定清晰边界。

  “养虾先剪脚,关起笼子再上岗。”一位业内人士形象地概括AI智能体的安全发展路径:先为智能体赋予最小权限,通过网络隔离、沙箱限制、合法身份认证等方式筑牢安全防线,当前优先做好“虾片/虾饼”式的能力裁剪,待安全体系成熟后,再逐步放开其功能权限,实现安全与效率的双向提升。