Guard Scanner

AI代理技能的安全扫描器与运行时防护。涵盖32个类别、352种静态威胁模式及26项运行时检查(5层防御)。用于扫描……

安装

概览

Guard Scanner 是一款专为 AI 代理技能(AI agent skills)设计的安全扫描与运行时防护工具,由 Guava Parity 团队开发。它通过静态分析与动态监控相结合的方式,全面检测 AI 技能中潜藏的多类安全威胁,覆盖从代码注入到身份伪造等关键风险点。与传统安全工具不同,Guard Scanner 不仅关注传统软件漏洞,更聚焦于 LLM 时代特有的攻击向量,如提示词注入、身份劫持和供应链投毒等。其核心能力建立在 32 个威胁类别和 352 种静态检测模式之上,同时提供五层纵深防御的运行时检查机制,确保 AI 代理在运行时的行为始终符合安全预期。该工具支持多种输出格式,并深度集成 CI/CD 流程,适用于现代 AI 应用开发的全生命周期安全防护。

核心功能特点

  1. 支持 32 大类、352 种静态威胁模式检测,涵盖 OWASP LLM Top 10 和 Agentic Security 关键风险
  2. 提供五层纵深防御的运行时防护,包括反向 shell 检测、SSRF 拦截、身份篡改识别等 26 项运行时检查
  3. 内置 VirusTotal 集成选项,实现语义分析与多引擎病毒扫描的双重验证
  4. 支持实时 watch 模式,在开发过程中自动监控技能目录变化并触发扫描
  5. 可配置严格模式(strict)和强制执行(enforce),适配不同安全等级需求
  6. 兼容主流 IDE 插件生态,通过 MCP Server 协议支持 Cursor、Windsurf、Claude Code 等编辑器集成

适用场景

Guard Scanner 特别适用于需要高安全性保障的 AI 代理开发场景。对于构建自主决策型智能体或复杂工作流系统的团队而言,该工具能有效识别隐藏在 prompt 模板中的隐蔽指令注入、利用 Unicode 字符绕过过滤的伪装攻击,以及通过内存污染实现的持久化控制。在企业级 AI 平台部署前,使用 Guard Scanner 进行资产审计功能可防止敏感凭证意外暴露在 npm、GitHub 或 clawHub 公共仓库中,避免因依赖包投毒导致的大规模供应链攻击。此外,结合 `–soul-lock` 标志启用身份保护后,系统能防范 SOUL.md 文件被篡改、角色身份被劫持等高级持续性威胁。对于持续交付流水线,Guard Scanner 可通过 SARIF 格式输出合规报告并与 GitHub CodeQL 无缝对接,实现自动化安全门禁,确保每次提交都经过严格威胁筛查。