首页龙虾技能列表 › self-improving-question-system-for-better-results — 自改进提问系统

self-improving-question-system-for-better-results — 自改进提问系统

v1.0.0

通过自动诊断和提升提示词质量,解锁显著更好的AI回答。当用户想要更准确、更具可操作性或更严谨的回答时使用此技能——尤其当用户请求模糊、缺乏具体说明或缺少关键上下文时。应用静默的10分质量检查清单,涵盖输出清晰度、方法论适用性、信息完整性、成功标准等。如果提示词通过,直接回答;如果未通过,进入增强模式:揭示具体差距并提出有针对性的挑战问题,循环直到质量通过或用户确认'PROCEED ANYWAY'。

0· 103·0 当前·0 累计
by @evafan7 (EVAFAN7)·MIT-0
下载技能包
License
MIT-0
最后更新
2026/3/26
安全扫描
VirusTotal
无害
查看报告
OpenClaw
安全
high confidence
仅提供指令的提示词改进技能;无安装要求或凭据请求,其运行时指令与其声明的诊断和澄清提示词的目标一致。
评估建议
此技能仅提供指令且与其目标内在一致:它将静默评估您的提示词是否符合10分检查清单,并提出有针对性的澄清问题,直到提示词达到其质量阈值或您说'PROCEED ANYWAY'。它不要求凭据也不安装任何东西。请考虑您是否对'静默评估'行为(技能不会向您展示其内部检查)以及主观触发语言(它可能比您预期更频繁地询问澄清)感到满意。如果您偏好完全透明,请在安装或启用技能之前要求代理公开检查清单/结果,而不是将它们保留在内部。...
详细分析 ▾
用途与能力
名称和描述与指令相符:此技能评估提示词质量并在生成最终答案之前提出有针对性的澄清问题。它不请求与该目的无关的外部服务、二进制文件或凭据。
指令范围
SKILL.md提供了清晰的10分检查清单和确定性的澄清循环。需要注意的是:(1)'静默评估原则'指示代理将分析保留在内部,不暴露评估过程——这是一个设计选择(不是直接的安全问题),但会降低用户对应用了哪些检查的透明度;(2)触发规则包含主观性语言('任何提示词质量明显不足以获得高质量回答的请求'),这可能导致比严格必要更广泛的调用。两者都是功能性/设计问题,而不是不一致或恶意行为。
安装机制
无安装规范或代码文件——仅提供指令。不会向磁盘写入任何内容,也没有下载或第三方包,这最大限度地降低了安装时的风险。
凭证需求
此技能不需要环境变量、凭据或配置路径。请求的访问权限与声明的提问澄清问题和回答的目的相称(无)。
持久化与权限
always为false,没有迹象表明此技能会修改其他技能或系统设置。自主调用(disable-model-invocation=false)是平台默认设置,单独来看不是问题。
安全有层次,运行前请审查代码。

License

MIT-0

可自由使用、修改和再分发,无需署名。

运行时依赖

无特殊依赖

版本

latestv1.0.02026/3/26

- 自改进提问系统的初始发布,用于诊断和增强提示词质量,以获得更好的AI生成答案。 - 引入静默的10分质量检查清单来评估提示词的清晰度、完整性、相关性和严谨性。 - 当提示词质量不足时自动进入'增强模式',用有针对性的澄清问题挑战用户。 - 确保在生成答案之前解决关键输出维度(清晰度、上下文、成功标准)。 - 提供清晰、专业的反馈格式,指导用户完善请求或按原样继续。 - 支持迭代改进循环,最多3轮,除非用户选择继续。

● 无害

安装命令 点击复制

官方npx clawhub@latest install self-improving-question-system-for-better-results
镜像加速npx clawhub@latest install self-improving-question-system-for-better-results --registry https://cn.clawhub-mirror.com

技能文档

执行流程:

接收提示词 → 静默评估(10分检查) → 质量评估
↓
质量通过 → 直接回答
↓
质量失败 → 进入"增强模式" → 列出澄清要点 → 用户输入
↓
重新评估 → 循环直到通过或用户确认"继续" → 执行回答

10分质量检查清单:

#维度核心检查挑战模板(如果失败)
1输出清晰度当工作流未指定时,最终交付物是否明确定义?"我到底应该交付什么?描述最终输出格式、内容和质量标准。"
2工作流精确度当工作流已指定时,每个步骤是否具体且可操作?"你具体指什么?能否分解操作细节或提供一个示例?"
3方法论适用性经典心智模型/理论/框架能否提升效率和质量?"此任务可以使用[方法论]来增强。我是否应该通过这个经过验证的框架来构建解决方案?"
4夯实基础用户在执行前是否需要领域基础知识和战略框架?"该领域的核心逻辑是[简要总结]。我应该直接提供执行步骤,还是先为您构建认知框架来设计策略?"
5信息完整性目标、偏好、阶段、优先事项和痛点是否完全捕获?"关键缺失的上下文:[列出差距]。此信息对答案质量至关重要。您能提供这些细节吗?"
6严格审查用户现有方法是否有缺陷?"您在[方面]的当前方法存在[具体问题]。建议优化:[方向]。理由:[专业解释]。接受吗?"
7范围边界时间/资源/排除边界是否明确定义?"预期时间线是什么?有什么硬性约束(预算、资源、绝对排除的方法)?"
8成功标准验收标准或成功定义是否明确?"用什么标准来定义此答案的成功?提供具体的验收清单或可量化的指标。"
9风险预判是否考虑了失败场景和底层假设?"如果[步骤]失败,您的B计划是什么?我应该验证您做了哪些假设的可行性吗?"
10认知对齐用户需要可能性探索还是可执行的解决方案?"您需要我打开可能性进行探索,还是直接提供可执行的解决方案?"

输出规则:

1. 静默评估原则

  • 分析过程保持内部;绝不向用户暴露

2. 质量通过标准

  • 关键项目(1、5、8)必须通过
  • 非关键项目:缺失≤2项,或用户明确拒绝补充

3. 增强模式输出格式

【提示词质量诊断】
分析完成。您的提示词可以在以下维度得到显著升级:
▸ [维度名称]
当前状态:[简要问题描述]
增强:[如何改进]
确认:[具体挑战问题]
▸ [下一项...]
请提供上述信息以获得精准定制的回答。如果您确认无需补充,请说明"继续",我将根据现有信息进行回答。

4. 语气与立场

  • 专业、直接、零取悦
  • 严格审视用户提供的朴素解决方案,但提供建设性优化
  • 挑战服务于质量提升,而非阻挠

5. 终止条件

  • 用户补充信息且重新评估通过
  • 用户明确说明"继续"或"就这样"
  • 循环次数≥3:尊重用户选择并直接回答
数据来源:ClawHub ↗ · 中文优化:龙虾技能库
OpenClaw 技能定制 / 插件定制 / 私有工作流定制

免费技能或插件可能存在安全风险,如需更匹配、更安全的方案,建议联系付费定制

了解定制服务