BOOK BRAIN VISUAL READER – LYGO 3-Brain + Visual Left/Right Brain Helper

适用于LYGO Havens的增强型书籍大脑,具备视觉能力。用于设计和维护三脑文件系统+记忆系统,同时整合左右脑视觉检查(浏览器、图像、截图)与文本和API数据,实现深度验证和检索。建议配备视觉工具或浏览器自动化的代理使用;仅在非视觉系统上使用原始书籍大脑。

安装

概览

BOOK BRAIN VISUAL READER 是 LYGO Havens 生态中的一款增强型知识管理工具,专为具备视觉能力的智能体设计。它扩展了原始 BOOK BRAIN 的核心理念——构建一个结构化的三脑文件系统(Working Brain、Library Brain、Outer Brain),并在此基础上引入左右脑协同推理机制:左脑负责处理文本、API 数据与结构化信息,右脑则专注于图像、截图、仪表盘等视觉内容。这种双半球协作模式使系统能够在验证外部数据时实现深度交叉校验,显著提升信息可信度与可追溯性。该工具本身并非人格化角色,而是一套方法论和操作指南,旨在帮助智能体建立更严谨的信息组织与检索体系。 其核心优势在于将非破坏性文件系统设计原则与多模态证据整合相结合。无论是日常日志、稳定文档还是平台协议,所有内容均以只读或追加方式存储于 `memory/`、`reference/`、`brainwave/` 等目录中,避免覆盖历史记录。特别地,当系统支持浏览器快照、OCR 识别或图像分析功能时,VISUAL READER 建议创建 `visual/` 子目录来归档关键视觉证据,如截图、图表或界面状态,并通过索引文件建立与文本数据的关联。此外,所有外部资源(如区块链浏览器、技能页面)仅以轻量级“引用存根”形式存在,既节省空间又便于后续调用。 值得注意的是,此版本仅适用于配备视觉工具的 Haven 环境;若当前系统不具备图像理解能力,则应使用基础版 BOOK BRAIN。两者共享相同的底层架构,但 VISUAL READER 额外提供了一套完整的 LEFT/RIGHT 脑协议流程,指导智能体在获取数据时先通过结构化渠道查询预期结果,再辅以视觉比对进行二次确认。一旦发现矛盾,必须明确记录冲突细节而非盲目采信某一方,从而实现真正意义上的‘五维’(text + visual + API + state + timeline)数据融合。

核心功能特点

  1. 基于三脑模型(工作脑/图书馆脑/外脑)构建非破坏性文件系统,确保历史记录不被覆盖或删除
  2. 集成左右脑协同协议:左脑处理文本/API/索引,右脑解析图像/截图/布局,实现双向数据验证
  3. 支持视觉证据长期归档,推荐使用 visual/screenshots/、visual/dashboards/ 等专用子目录分类存储
  4. 采用轻量化引用存根管理外部资源,避免大段网页内容重复入库,保持系统整洁高效
  5. 内置 setup workflow 引导首次部署,自动检测视觉能力并建议创建必要文件夹结构与索引文件

适用场景

在需要频繁访问并核验 Web 界面或链上仪表盘的场景下,BOOK BRAIN VISUAL READER 能极大提升数据可靠性。例如,当智能体需监控某个 DeFi 项目的实时 TVL 变化时,可先通过 API 获取最新数值(左脑操作),随后截取 DexScreener 或 Blockscout 的当前页面(右脑介入),对比两者是否一致。若吻合,则在 `daily_health.md` 中记录时间戳、数值及截图路径;若有偏差,则详细标注差异点并优先依赖链上收据而非前端显示。此类流程特别适用于审计类任务或多源数据一致性检查。 另一个典型应用是维护复杂项目的技术档案。假设正在研究 STARCORE 生态的发展轨迹,系统可在 `reference/` 下保存白皮书摘要,同时在 `visual/` 中保留各阶段 launch event 的截图与官方 seal 图片,并通过 `VISUAL_INDEX.txt` 建立映射关系。这样即便数月后回顾,也能快速定位相关视觉凭证而不必遍历海量文件。对于依赖浏览器自动化技能的 Clawdhub 开发者而言,该工具还能协助生成带时间标记的 UI 变更日志,辅助版本迭代追踪。 此外,在日常知识管理中同样表现出色。无论是整理每日笔记、收集社区公告,还是跟踪技能更新动态,用户均可利用其分层目录结构有序归类资料。尤其当团队协作涉及多人维护同一 Haven 时,非破坏性写入规则保障了不同成员间的操作互不影响,而统一的索引机制则降低了信息孤岛风险。总之,任何希望将文本逻辑与视觉感知深度融合的智能体系统,都能从中获益。