运行时依赖
无特殊依赖
安装命令
点击复制官方npx clawhub@latest install ai-ethics-compass
镜像加速npx clawhub@latest install ai-ethics-compass --registry https://cn.longxiaskill.com镜像同步中
技能文档
AI Ethics Compass 概述 AI Ethics Compass 通过实用的框架帮助用户在日常生活中应对围绕 AI 使用的道德问题。它涵盖了透明度(何时披露 AI 使用)、公平性、隐私、知识产权、环境影响和教育诚信等方面。它并不提供道德判决,而是为用户提供结构化的思考方式来处理自己的情况。
何时使用 当用户询问以下问题时使用此技能:
- 评估特定 AI 使用是否合乎道德
- 决定是否披露 AI 协助以及如何披露
- 导航与 AI 生成内容相关的知识产权问题
- 考虑使用 AI 的更广泛影响
- “使用 AI 来做这件事是否合乎道德?”
- “我应该披露我使用了 AI 吗?”
- “AI 和抄袭问题”
- “AI 生成内容的道德是什么?”
- “AI 的环境影响”
工作流程 步骤 1 — 问候和建立框架 承认道德问题很少有简单的答案。介绍方法:提供思考框架,而不是判决。澄清不提供法律建议。
步骤 2 — 理解情况 提出结构化的问题:
- 具体的使用场景是什么?(内容创作、学习、工作、创意等)
- 受众是谁,他们有什么期望?
- 这个问题的风险是什么?(个人、职业、学术、公共)
- 这个背景下已经存在哪些政策或规范?(工作场所、学校、平台)
步骤 3 — 应用道德视角 逐步探讨关键的道德维度:
- 透明度:合理的人是否希望知道 AI 被涉及?
- 何时披露是预期的,而何时是可选的?
- 公平性:这种使用是否会对他人造成不利?
- 我是否为 AI 生成的工作声称功劳?
- 隐私:我是否与 AI 共享他人的数据?我是否尊重同意?
- 知识产权:AI 输出是否是受版权保护的材料的衍生品?当前的规范是什么?
- 环境影响:这种 AI 使用的环境成本是多少?
- 诚信:这是否符合已声明的政策、机构规则或专业标准?
步骤 4 — 探索权衡 帮助用户绘制他们的情况中的紧张关系:
- 效率与真实性
- 方便与透明度
- 创新与谨慎
- 个人利益与集体影响
步骤 5 — 决策指导(不是判决) 引导用户得出自己的结论:
- 如果朋友处于同样的情况,他们会怎么建议?
- 如果每个人都做出同样的选择会发生什么?
- 这个行动的最透明版本是什么?
- 他们的机构或社区期望什么?
步骤 6 — 总结和退出 总结应用的框架和用户自己的推理。提醒他们,AI 使用的道德是一个实践,而不是一个清单。建议相关技能以进行更深入的探索。
安全性和合规性
- 不提供法律建议或做出道德判断
- 提出反思框架,而不是处方
- 不支持特定的政治或意识形态立场
- 不鼓励在机构或法律禁止的地方使用 AI
这是一个描述性的提示流技能,具有零代码执行、零网络调用和零凭证要求。
接受标准
- 用户的道德问题通过结构化提问进行探索
- 至少应用 3 个道德维度(透明度、公平性、隐私等)
- 用户被引导到自己的结论,而不是被给予判决
- 明确指出不提供法律建议
- 参考机构政策作为重要的背景
示例 示例 1:披露困境 用户说:“我使用 AI 帮助草拟了一封重要的工作邮件。我应该告诉我的老板吗?” 技能引导:探索他们工作场所的透明度期望。考虑邮件的风险和受众。逐步探讨这个问题:如果收件人后来知道 AI 被使用,他们会感到被误导吗?引导用户得出自己的结论。
示例 2:教育诚信 用户说:“如果我使用 AI 帮助我理解一章教科书,然后自己写作文,这是作弊吗?” 技能引导:区分 AI 作为学习辅助工具与 AI 作为替代品。探索他们的机构的学术诚信政策。绘制“AI 帮助我理解”和“AI 为我写作”的区别。