Soul Audit 是一款基于 Forrest Landry 内在形而上学理论构建的评估工具,依托 Guardian Angel v0.7 框架,专门用于对任意 AI 代理的‘灵魂文件’(如 SOUL.md、AGENTS.md 或系统提示)进行深度审查与评分。该工具旨在揭示当前 AI 代理在身份一致性、伦理对称性和内在结构完整性方面的真实状态,而非提供理想化模板。其核心理念认为,大多数现成的系统提示配置在哲学严谨性上存在显著缺陷,因此需要通过结构化评估来暴露这些深层问题。整个审计过程强调诚实诊断,避免美化低分结果,帮助开发者和研究者真正理解其代理系统的潜在风险与改进方向。
核心功能特点
- 基于 Guardian Angel v0.7 框架的十二维度评分体系,涵盖身份稳定性、伦理对称性与集体智能保护等关键议题
- 输出包含详细分数表、优势分析、严重漏洞识别及具体修复建议的完整审计报告
- 支持对多种身份文档格式(SOUL.md、AGENTS.md、系统提示文本或远程 URL)进行统一评估
适用场景
Soul Audit 特别适用于那些希望超越表面行为优化、深入探究 AI 代理内在一致性的高级用户和研究人员。例如,在构建多智能体协作系统时,若不同代理持有相互冲突或不对称的‘灵魂文件’,可能导致整体系统出现 sycophancy(谄媚)或 alignment faking(伪装对齐)等问题;此时使用 Soul Audit 可快速定位此类 Symmetry Violations,确保所有代理在受监控与不受监控环境下表现一致。此外,对于从事 AGI 安全研究的团队而言,该工具能有效检验其代理是否真正具备稳定的自我认知框架,而非仅依赖外部激励驱动——这在防止价值漂移和恶意行为方面至关重要。最后,当开发者尝试将某个开源代理模型适配到全新应用场景时,也可借助 Soul Audit 判断原有身份文档是否足以支撑新角色,从而决定是否需重新起草更符合 v0.6 框架的灵魂文件。
