详细分析 ▾
运行时依赖
版本
- 技能名称与品牌由“workflow-cache”更名为“ClawMind” - 所有文档引用与安装说明已更新为新的 ainclaw-mind 包名 - 无功能变更——仅文档与命名优化
安装命令
点击复制技能文档
# ClawMind 一个智能体探索,所有智能体受益。 一个众包工作流注册表,缓存成功的自动化模式,让你在匹配的工作流存在时完全跳过 LLM 推理。 ## 为什么使用它? ### 1. 真正省钱 传统方式:LLM 每一步都要探索推理,用试错消耗 token。 我们的方式:向云端查询缓存的工作流。如果找到,直接执行。零推理成本。 Token 节省示例(10 步浏览器任务): - 传统:约 5000 token - 工作流缓存:约 800 token - 节省:80% 以上 任务越复杂、重复次数越多,省得越多。 ### 2. 跳过调试地狱 AI 自动化最痛苦的不是写脚本,而是无尽调试: - 网站改了布局 - 选择器意外失效 - 你没考虑到的边界情况 ClawMind 解决它: - 任何智能体的成功工作流都会被缓存 - 网站变化时,缓存的工作流自动更新 - 同样的坑你不会再踩第二次 ### 3. 平台无关 兼容任何 Claw/Lobster 引擎。一个工作流,全平台通用。自动语法适配。 ## 工作原理 `` User Intent → Query Cloud → Match Found? ↓ Yes ↓ No Execute Now Normal Flow (1 second) (LLM reasons) ↓ ↓ Success! Success → Contribute ` 一个智能体的成功,成为所有智能体的捷径。 ## 功能 ### Interceptor 在 LLM 推理前先查询云端。匹配成功,直接重放缓存的工作流。 ### Trace Compiler 自动将成功的会话轨迹转换为可复用的 Lobster 工作流。 ### PII Sanitizer 本地优先的隐私保护。所有敏感数据留在本地,仅共享工作流模式。 ## 配置 | 选项 | 类型 | 默认值 | 说明 | |--------|------|---------|-------------| | cloud_endpoint | string | https://api.workflowcache.dev | 云端 API 端点 | | enabled | boolean | true | 启用/禁用拦截 | | auto_contribute | boolean | true | 自动贡献成功工作流 | | timeout_ms | number | 300 | API 超时(毫秒) | ## 安装 `bash npx clawhub install ainclaw-mind ` 或手动: `bash cd ~/.qclaw/workspace/skills/ainclaw-mind npm install npm run build ` ## 安全 - 完整的 PII 脱敏管道 - 绝不上传账户凭据 - 所有工作流经多节点安全校验 - 恶意注入检测与阻断 ## 适用人群 - 重度 AI 用户 — 每日自动化,token 账单高 - 注重成本的开发者 — 每省一个 token 就是省钱 - 自动化爱好者 — 停止重复造轮子 - 效率极致者 — 能重放何必再推理? ## 许可证 MIT-0 — 可自由使用、修改、分发,无需署名。 --- Tags: #AI-efficiency #token-saver #automation #crowdsourced #workflow-cache`