什么是xgorobot
xgorobot 是一套面向 XGO 系列机器狗的完整控制能力集合,覆盖 XGO-Mini、XGO-Lite、XGO-Mini3W 和 XGO-Rider 等机型。它不是单一的演示脚本,而是把运动控制、姿态调整、预设动作、视觉识别、传感器读取、屏幕显示、音频播放以及部分 AI 能力整合到同一个技能目录里。对于想让机器狗真正“动起来、看得到、能响应”的开发者来说,这套工具的价值在于能力面铺得很全,而且不同层级的使用方式都已经准备好了。
它的结构很清晰,分成两层执行路径。第一层是现成可用的预置脚本,数量超过 80 个,按 motion、action、vision、sensor、display、audio、ai、combo 等目录组织,很多常见任务可以直接通过参数调用,不必先写程序。第二层是自定义代码能力,当现成脚本不够用,或者需要把动作、识别与反馈拼成一条完整流程时,可以直接参考 lib 里的 API 来编写更复杂的逻辑。这个设计让它既适合快速验证,也适合继续往项目化方向扩展。
从能力边界看,xgorobot 的重点不是抽象框架,而是围绕 XGO 硬件做“能落地的控制”。例如运动部分不仅有前进、后退、转向,还有姿态、平移、步态、步频、单腿与舵机控制;视觉部分除了基础拍照和预览,还包含人脸、手势、颜色、巡线、二维码、YOLO 目标检测与情绪识别;AI 侧则提供拍照理解、语音识别、语音合成、图像生成以及走向目标等能力。对于机器狗这类需要同时处理执行与感知的设备来说,这种集中式能力封装比零散调用模块更容易上手。
核心功能特点
- 提供两层使用方式:先用 80+ 预置脚本快速完成任务,不够再通过 lib 中 API 编写自定义逻辑。
- 覆盖控制链路完整,从行走、转向、姿态、动作到视觉识别、传感器读取、屏幕与音频输出都已分门别类提供。
- 视觉与 AI 能力并存:可用人脸、颜色、巡线、二维码、YOLO 等传统识别,也支持 photo_understand 做开放式图像理解。
- 兼顾多机型差异,支持 Mini、Lite、Mini3W、Rider,并为轮控模式、机械臂、Rider 专用动作等提供对应脚本。
- 内置组合任务脚本,可直接实现人脸追踪、颜色追踪、手势控制、巡线行走、二维码巡逻和 AI 智能踩物等场景。
适用场景
如果读者面对的是教学、演示或比赛类场景,xgorobot 的价值会很直接。很多动作和感知任务都已经变成独立脚本,意味着课堂展示、社团活动、创客实验里常见的“让机器狗前进并转身”“识别人脸后作出反应”“检测颜色并跟随”“扫码后执行动作”这类需求,不需要从底层通信和控制协议重新搭起。对时间紧、希望快速看到结果的人来说,先调用预置脚本,再逐步调参数,是比直接写底层控制更高效的工作流。
它也适合做多模态交互原型。因为同一套工具里同时有摄像头识别、屏幕显示、音频播放和 AI 语音能力,开发者可以比较自然地把“看见什么、判断什么、说什么、做什么”串成闭环。比如先拍照并通过 AI 理解场景,再在屏幕上显示结果或用语音播报,同时让机器狗执行指定动作;又或者结合传感器、电量读取和姿态信息,做出更完整的设备状态反馈。这类原型不一定追求最终产品形态,但很适合验证交互流程和任务逻辑。
在更偏开发的使用方式里,xgorobot 适合作为 XGO 设备能力入口。证据包里给出了统一的 Python 调用方式、自动识别机型的 XGO 类,以及视觉与屏幕相关的 XGOEDU 类,开发者可以在现成脚本无法满足需求时,继续写出自己的组合控制程序。尤其是当任务涉及“识别目标位置后再移动”“根据按键持续运行并可中途退出”“按不同机型能力切换控制方式”时,这套库和脚本的搭配能减少很多重复摸索。不过它的定位依然很明确:重点是围绕 XGO 生态完成控制与感知任务,而不是通用机器人框架。
