Aport Agent Guardrail

Pre-action authorization for AI agents. Installs an OpenClaw before_tool_call hook that evaluates every tool call against a passport and policy before execut...

安装

概览

APort Agent Guardrail 是一款专为 AI 智能体设计的预行动授权工具,通过在 OpenClaw 运行时层植入 `before_tool_call` 钩子,实现对所有工具调用的安全审查。它在每次工具执行前评估调用是否符合预设的身份凭证(passport)与策略规则,从而有效防止未经授权的敏感操作。该方案不依赖修改模型提示词或训练过程,而是在应用层强制执行安全控制,确保即使智能体具备高权限,其行为仍受严格约束。开源实现基于 Apache 2.0 许可,允许用户审计代码并验证其安全性,核心逻辑来自 [@aporthq/aport-agent-guardrails](https://github.com/aporthq/aport-agent-guardrails) npm 包。部署后,系统会在每次工具调用时自动触发检查流程:先加载身份凭证与策略配置,判断是否允许执行,并将决策结果记录至审计日志中,形成完整的可追踪链条。

核心功能特点

  1. 在 OpenClaw 的 before_tool_call 钩子层实施预行动授权,拦截所有工具调用请求
  2. 支持本地或云端托管的身份凭证(passport),包含身份、能力与资源限制信息
  3. 内置多种默认防护机制,如 shell 命令白名单、高危模式阻断、文件路径访问控制等
  4. 提供详细的决策日志与审计轨迹,便于事后审查与安全分析
  5. 兼容 OpenClaw、IronClaw 及 PicoClaw 等主流智能体运行时环境
  6. 可选 API 模式集成 aport.io 平台,支持全局暂停、数字签名验证和集中化合规仪表盘

适用场景

APort Agent Guardrail 主要面向需要为自主 AI 智能体添加安全防护机制的开发者与运维团队。典型使用场景包括部署在生产环境中运行自动化脚本的智能体,这些智能体可能拥有系统级操作权限,一旦失控将带来严重风险。例如,一个负责代码部署的 GitHub Actions 智能体若被注入恶意指令,可能执行 `rm -rf /` 类危险命令;而通过 APort 的 allowlist 机制,此类操作将被即时阻止。此外,企业内网中运行的数据处理智能体也可能面临越权读取 `.env` 文件或 SSH 密钥的风险,Guardrail 的文件路径限制功能可有效隔离关键资产。对于使用 MCP(Model Context Protocol)或自定义工具集的高级智能体,该工具还能根据服务器名称和工具类型进行细粒度授权,避免横向移动攻击。无论是本地开发测试还是大规模集群部署,APort 都能在不改动原有智能体逻辑的前提下增强整体安全性。