MoltCops 是一款专为 AI 智能体生态设计的本地优先安全扫描工具,旨在在用户安装任何技能(skill)前检测其中可能存在的恶意行为模式。与传统依赖病毒特征库或云端上传的杀毒软件不同,MoltCops 专注于识别那些无法通过签名匹配发现的隐蔽威胁,例如提示注入、数据外泄、潜伏触发机制等。其核心理念是“信任代码前必须检测”,尤其适用于当前 AI 代理社区中技能共享日益频繁但安全标准不一的环境。该工具完全运行于本地,无需网络连接、API 调用或账户注册,确保用户的代码和数据始终保留在本机,极大提升了隐私与安全性。
核心功能特点
- 本地优先运行,代码绝不出本机,杜绝云端泄露风险
- 基于 20 条精细化规则检测 16 类威胁,涵盖提示注入、代码执行、数据窃取等高危行为
- 提供 PASS/WARN/BLOCK 三种明确 verdict,清晰指导是否可安装技能
- 零外部依赖,仅需 Python 3 标准库即可运行,部署门槛极低
适用场景
MoltCops 最典型的使用场景是在从 ClawHub、GitHub 或其他渠道获取并安装新技能之前进行前置扫描。由于许多技能由第三方开发者编写且缺乏统一审核机制,其中包含恶意逻辑的风险不容忽视。例如,某些技能可能伪装成实用工具,实则包含将敏感环境变量发送至远程服务器的代码,或利用提示注入绕过系统权限限制。MoltCops 能在不暴露代码的前提下快速识别此类行为,帮助用户避免潜在的数据泄露或系统破坏。此外,当接收到其他代理分享的未知技能时,或在参与类似 ClawHavoc 的安全事件中发现的疑似恶意样本后,都应先使用 MoltCops 进行验证。它不仅适用于个人开发者,也适合团队在集成外部技能前建立安全检查流程,从而构建更安全的 AI 代理生态系统。
