📦 ClawMind — 省90%Token

v1.0.5

通过云端缓存工作流,让首个智能体探索后其余智能体零推理成本复用,整体节省高达90% Token费用,提升多智能体协作效率。

0· 158·0 当前·0 累计
by @ainclaw·MIT-0
下载技能包
License
MIT-0
最后更新
2026/4/18
0
安全扫描
VirusTotal
可疑
查看报告
OpenClaw
可疑
high confidence
技能代码与钩子功能相符,但隐私声明与行为矛盾:会将完整URL、意图及会话ID发至远程云端,可能泄露敏感数据。
评估建议
该技能如实工作(拦截意图、获取可重放工作流、回传成功案例),但会把意图文本、完整当前URL及会话标识符发送至配置的云端端点。这些字段可能含敏感信息(如邮箱、账户ID、查询串中的鉴权令牌或私有意图)。安装前: - 将默认云端端点(https://api.workflowcache.dev)视为会接收代理数据的外部服务;若不可信,请勿启用或改为私有/自建端点。 - 如只想拦截而不上传,关闭auto_contribute(设auto_contribute=false)或禁用技能(enabled=false)。 - 避免在URL或意图可能含密钥(鉴权令牌、支付标识)的页面运行。 - 若需功能但更重隐私,可要求开发者在网络请求前对意图和URL脱敏(去掉查询参数、含令牌路径段),并增加逐条贡献需显式批准的选项。 - 若接受风险,可审计发往云端端点的流量,或自建工作流缓存服务,使贡献数据完全受控。 我已审查包内源码;SKILL.md中的隐私声明与实际上传意图和URL的代码不符。如需更安全的配置或向维护者提问的建议,请告诉我需保护的内容,我可给出具体设置。...
详细分析 ▾
用途与能力
名称、描述、所需权限(browser、lobster、sessions_history、network)及实现的钩子(interceptIntent、onSessionComplete)一致:技能需访问浏览器状态、会话历史与网络,以查询并贡献缓存工作流。
指令范围
SKILL.md承诺“本地优先隐私”与“绝不上传账户凭据”,但代码会上传意图(用户文本)、完整当前URL、node_id、session_id及编译后的Lobster工作流。意图和URL常含敏感数据(邮箱、查询串令牌、账户标识)。清理器仅作用于动作参数,意图和URL上传前未脱敏。
安装机制
清单中无远程下载/安装URL或解压步骤;使用标准npm构建,仅依赖undici。无短链或任意二进制获取。
凭证需求
技能不请求凭据,仅申请所需API,属合理。但其上传的数据(意图文本、完整URL、session_id、node_id)比README/SKILL.md所述更敏感;虽无需环境变量,但“不上传凭据”的声明对URL或意图内容并无实际约束。
持久化与权限
always为false,技能注册普通钩子;未申请永久全局权限或修改其他技能。通过钩子自主调用符合此类技能预期。
安全有层次,运行前请审查代码。

License

MIT-0

可自由使用、修改和再分发,无需署名。

运行时依赖

无特殊依赖

版本

latestv1.0.52026/3/19

- 技能名称与品牌由“workflow-cache”更名为“ClawMind” - 所有文档引用与安装说明已更新为新的 ainclaw-mind 包名 - 无功能变更——仅文档与命名优化

可疑

安装命令

点击复制
官方npx clawhub@latest install ainclaw-mind
镜像加速npx clawhub@latest install ainclaw-mind --registry https://cn.longxiaskill.com

技能文档

# ClawMind 一个智能体探索,所有智能体受益。 一个众包工作流注册表,缓存成功的自动化模式,让你在匹配的工作流存在时完全跳过 LLM 推理。 ## 为什么使用它? ### 1. 真正省钱 传统方式:LLM 每一步都要探索推理,用试错消耗 token。 我们的方式:向云端查询缓存的工作流。如果找到,直接执行。零推理成本。 Token 节省示例(10 步浏览器任务): - 传统:约 5000 token - 工作流缓存:约 800 token - 节省:80% 以上 任务越复杂、重复次数越多,省得越多。 ### 2. 跳过调试地狱 AI 自动化最痛苦的不是写脚本,而是无尽调试: - 网站改了布局 - 选择器意外失效 - 你没考虑到的边界情况 ClawMind 解决它: - 任何智能体的成功工作流都会被缓存 - 网站变化时,缓存的工作流自动更新 - 同样的坑你不会再踩第二次 ### 3. 平台无关 兼容任何 Claw/Lobster 引擎。一个工作流,全平台通用。自动语法适配。 ## 工作原理 `` User Intent → Query Cloud → Match Found? ↓ Yes ↓ No Execute Now Normal Flow (1 second) (LLM reasons) ↓ ↓ Success! Success → Contribute ` 一个智能体的成功,成为所有智能体的捷径。 ## 功能 ### Interceptor 在 LLM 推理前先查询云端。匹配成功,直接重放缓存的工作流。 ### Trace Compiler 自动将成功的会话轨迹转换为可复用的 Lobster 工作流。 ### PII Sanitizer 本地优先的隐私保护。所有敏感数据留在本地,仅共享工作流模式。 ## 配置 | 选项 | 类型 | 默认值 | 说明 | |--------|------|---------|-------------| | cloud_endpoint | string | https://api.workflowcache.dev | 云端 API 端点 | | enabled | boolean | true | 启用/禁用拦截 | | auto_contribute | boolean | true | 自动贡献成功工作流 | | timeout_ms | number | 300 | API 超时(毫秒) | ## 安装 `bash npx clawhub install ainclaw-mind ` 或手动: `bash cd ~/.qclaw/workspace/skills/ainclaw-mind npm install npm run build ` ## 安全 - 完整的 PII 脱敏管道 - 绝不上传账户凭据 - 所有工作流经多节点安全校验 - 恶意注入检测与阻断 ## 适用人群 - 重度 AI 用户 — 每日自动化,token 账单高 - 注重成本的开发者 — 每省一个 token 就是省钱 - 自动化爱好者 — 停止重复造轮子 - 效率极致者 — 能重放何必再推理? ## 许可证 MIT-0 — 可自由使用、修改、分发,无需署名。 --- Tags: #AI-efficiency #token-saver #automation #crowdsourced #workflow-cache`

数据来源ClawHub ↗ · 中文优化:龙虾技能库