Guard Scanner 是一款专为 AI 代理技能(AI agent skills)设计的安全扫描与运行时防护工具,由 Guava Parity 团队开发。它通过静态分析与动态监控相结合的方式,全面检测 AI 技能中潜藏的多类安全威胁,覆盖从代码注入到身份伪造等关键风险点。与传统安全工具不同,Guard Scanner 不仅关注传统软件漏洞,更聚焦于 LLM 时代特有的攻击向量,如提示词注入、身份劫持和供应链投毒等。其核心能力建立在 32 个威胁类别和 352 种静态检测模式之上,同时提供五层纵深防御的运行时检查机制,确保 AI 代理在运行时的行为始终符合安全预期。该工具支持多种输出格式,并深度集成 CI/CD 流程,适用于现代 AI 应用开发的全生命周期安全防护。
核心功能特点
- 支持 32 大类、352 种静态威胁模式检测,涵盖 OWASP LLM Top 10 和 Agentic Security 关键风险
- 提供五层纵深防御的运行时防护,包括反向 shell 检测、SSRF 拦截、身份篡改识别等 26 项运行时检查
- 内置 VirusTotal 集成选项,实现语义分析与多引擎病毒扫描的双重验证
- 支持实时 watch 模式,在开发过程中自动监控技能目录变化并触发扫描
- 可配置严格模式(strict)和强制执行(enforce),适配不同安全等级需求
- 兼容主流 IDE 插件生态,通过 MCP Server 协议支持 Cursor、Windsurf、Claude Code 等编辑器集成
适用场景
Guard Scanner 特别适用于需要高安全性保障的 AI 代理开发场景。对于构建自主决策型智能体或复杂工作流系统的团队而言,该工具能有效识别隐藏在 prompt 模板中的隐蔽指令注入、利用 Unicode 字符绕过过滤的伪装攻击,以及通过内存污染实现的持久化控制。在企业级 AI 平台部署前,使用 Guard Scanner 进行资产审计功能可防止敏感凭证意外暴露在 npm、GitHub 或 clawHub 公共仓库中,避免因依赖包投毒导致的大规模供应链攻击。此外,结合 `–soul-lock` 标志启用身份保护后,系统能防范 SOUL.md 文件被篡改、角色身份被劫持等高级持续性威胁。对于持续交付流水线,Guard Scanner 可通过 SARIF 格式输出合规报告并与 GitHub CodeQL 无缝对接,实现自动化安全门禁,确保每次提交都经过严格威胁筛查。
