Glin Profanity MCP

{"answer":"为 AI 助手提供脏话检测工具的 MCP 服务器。适用于批量审查用户内容、审核举报评论、发布前文本脏话分析,或 AI 工作流中的内容审核需求。"}

安装

概览

Glin Profanity MCP 是一款专为 AI 助手设计的脏话检测工具,基于 Model Context Protocol(MCP)构建,旨在为 Claude Desktop、Cursor、Windsurf 等主流开发环境中的智能体提供内容安全审核能力。该工具通过标准化的接口将文本内容的安全性分析集成到 AI 工作流中,使开发者能够在不中断对话流程的前提下,实现对用户生成内容的自动审查与风险提示。其核心优势在于将复杂的自然语言处理逻辑封装为简洁的工具调用,让 AI 模型能够直接调用脏话检测、上下文分析和内容清洗等功能,从而提升内容审核的智能化水平。 除了基础的脏话识别外,Glin Profanity MCP 还支持多语言检测,目前已覆盖 24 种语言,并具备对抗规避策略的能力,例如识别 leetspeak(如 f4ck 代替 fuck)或 Unicode 字符替换等常见变体。它还提供了灵活的内容评分机制,可根据不同场景(如医疗、游戏、社交媒体)调整检测严格度,并输出可解释的判定理由,帮助审核人员理解为何某段文本被标记为违规。此外,该工具支持批量处理、用户行为追踪和自定义正则表达式生成,适用于大规模内容平台的自动化审核系统。 作为一款开源项目,Glin Profanity MCP 不仅易于集成到现有 AI 系统中,还鼓励社区贡献词库与优化算法。它既可以作为独立服务运行,也能通过 npm 包快速部署,特别适合需要结合 AI 推理与规则判断的内容审核场景。无论是用于社交媒体评论过滤、在线论坛管理,还是企业级发布前的内容校验,该工具都能显著降低人工审核成本,提高处理效率。

核心功能特点

  1. 支持批量检查最多 100 条文本,适用于大规模内容审核任务
  2. 提供上下文感知分析功能,可针对医疗、游戏等专业领域优化检测精度
  3. 具备反混淆能力,能识别 leetspeak、Unicode 替换等规避手段
  4. 支持 24 种语言的脏话检测,满足国际化内容平台需求
  5. 输出可解释的判定结果,说明为何某段文本被标记为违规
  6. 集成用户行为追踪机制,便于识别高频违规用户并生成风险报告

适用场景

Glin Profanity MCP 特别适用于需要 AI 辅助进行内容审核的工作流。例如,在一个社交媒体管理平台中,管理员可以要求 AI 助手一次性检查数百条用户评论,快速筛选出包含不当言论的内容,并给出具体违规点说明,大幅缩短人工筛查时间。对于内容创作者而言,在博客文章或视频字幕正式发布前,可通过调用 validate_content 工具获取安全性评分及修改建议,确保传播内容符合社区规范。这种‘发布前校验’模式尤其适合新闻媒体、教育机构或品牌官方账号的内容质量控制。 在游戏聊天室或直播平台中,该工具能有效应对玩家使用变体词汇规避敏感词过滤的情况。通过启用 detect_obfuscation 和 analyze_context 功能,AI 助手不仅能识别表面文字,还能结合游戏语境判断是否存在恶意挑衅或仇恨言论,从而实现更精准的行为干预。同时,结合 track_user_message 和 get_high_risk_users 接口,运营团队可建立用户信用体系,对屡次违规者采取限制措施,维护健康互动环境。 对于开发者而言,Glin Profanity MCP 的 create_regex_pattern 和 suggest_alternatives 工具极具实用价值。前者允许根据特定业务需求定制正则表达式规则,后者则能在保留原意的前提下推荐得体表达,避免简单粗暴地屏蔽关键词。这些功能使得 AI 不仅能发现问题,还能提供建设性解决方案,推动从‘被动拦截’向‘主动引导’的内容治理模式转变。