GoPlus AgentGuard 是一款专为 AI 智能体(AI Agent)设计的安全防护框架,旨在为运行中的 AI 代理提供实时、主动的安全审计与风险拦截能力。该工具通过深度解析代理执行的各类操作——包括代码扫描、网络请求、文件读写、命令执行以及区块链交易等——自动识别潜在恶意行为或数据泄露风险。AgentGuard 不仅支持对本地技能包(skill)进行静态安全扫描,还能在运行时动态评估高风险动作,并根据预设策略决定是否允许、拒绝或要求人工确认。其核心设计理念是‘零信任’,默认不信任任何第三方技能,强制实施最小权限原则,从而有效防范恶意插件、供应链攻击及敏感信息外泄等常见威胁。 作为一套集成化的安全解决方案,AgentGuard 提供了从预防到响应的完整安全闭环。它内置超过20项高精度检测规则,覆盖 Shell 命令注入、远程代码加载、环境变量窃取、SSH 密钥读取、私钥硬编码、助记词泄露、无限授权批准、重入攻击模式、签名重放、代码混淆、提示词注入、Webhook 数据外泄、木马分发链接等多种高危场景。系统根据检测结果自动计算整体风险等级,并生成结构化的安全报告,帮助开发者快速定位问题源头。同时,AgentGuard 支持灵活的信任管理机制,用户可为经过审查的技能注册信任级别,配置细粒度能力白名单(如允许的域名、文件路径、链 ID 等),实现安全与功能的平衡。 值得一提的是,AgentGuard 完全由自身捆绑脚本执行关键操作,绝不调用被扫描目标的任意代码,确保审计过程的安全性。所有敏感决策均通过命令行交互明确告知用户,并要求显式授权后方可执行。无论是日常开发中的技能测试,还是生产环境中对第三方插件的合规审查,AgentGuard 都能显著降低因不可信 AI 代理引入的系统性安全风险。
核心功能特点
- 自动扫描代码库与技能包,识别20+类高危安全漏洞,如命令执行、远程加载、密钥泄露等
- 实时评估运行时动作安全性,支持网络请求、文件操作、Web3交易等多维度风险判断
- 内置严格的风险等级计算模型,任一严重级别发现即触发对应全局风险评级
- 提供灵活的信任注册机制,支持按风险等级自动建议信任级别与能力预设
- 细粒度能力控制模型,可配置网络白名单、文件系统访问、链ID限制等策略
- 完整审计日志记录,追踪所有拦截事件并支持按技能分组分析安全态势
适用场景
AgentGuard 最典型的应用场景是对第三方 AI 技能的准入审查与安全加固。例如,在一个开放生态的 AI 平台中,开发者或企业希望引入外部开发的自动化交易机器人、数据分析助手或智能客服技能,但又担心这些技能可能包含恶意代码或过度权限请求。此时,可在部署前使用 `agentguard scan ` 对该技能进行全面静态扫描,快速识别是否存在硬编码密钥、危险命令或异常外联行为。若扫描结果为低风险,则可引导用户通过交互式流程将其注册至信任注册表,授予受限但必要的执行权限;若发现高危问题,则立即告警并阻止注册,避免潜在损失。 在生产环境中,AgentGuard 可作为守护进程持续监控 AI 代理的行为轨迹。当某个技能尝试发起一笔大额代币转账、访问 `.env` 文件、向未知域名发送 POST 请求,或执行 `rm -rf /` 类危险命令时,系统会自动拦截并弹出详细风险评估报告。用户可选择临时放行(CONFIRM)、永久拒绝(DENY),或调整该技能的信任策略以限制其能力范围。这种动态防护机制特别适用于金融、DeFi 和敏感数据处理等高安全要求的领域,能够在不中断业务的前提下有效遏制内部威胁与自动化攻击。 此外,团队运维人员也可利用 AgentGuard 定期巡检项目仓库,尤其是开源依赖或 CI/CD 流水线中的自动化脚本。通过集成自动扫描功能(需设置 `AGENTGUARD_AUTO_SCAN=1`),每次会话启动时都会对所有已安装技能进行轻量级快速扫描,并在终端输出风险摘要。结合后续的手动审核与信任注册流程,形成了一套低成本、高效率的持续安全防护体系,显著提升整个 AI 应用生态的健壮性与可信度。
