📦 Ai Bias Detector — AI 偏见检测器
v1.0.0识别和减轻AI输出中的偏见 —— 成为一个更有辨别力的AI用户。
运行时依赖
安装命令
点击复制技能文档
AI偏见检测器概述 AI偏见检测器教导用户识别和减轻不同类型的偏见,这些偏见出现在AI输出中。它涵盖了训练数据偏见、表示偏见、文化偏见和语言偏见——提供了实际的检测清单和提示策略,以减少有偏见的响应。这个技能建立了批判性意识,而不促进对所有AI的不信任。这个技能是教育性的。它不声称消除偏见——它教导意识和减轻,而不是解决方案。
何时使用 使用这个技能,当用户要求: 了解AI是否有偏见 学习如何检测AI偏见 探索AI刻板印象问题 了解AI中的公平性 检查AI文化偏见 触发短语:“AI是否有偏见?”,“如何检测AI偏见”,“AI刻板印象问题”,“AI中的公平性”,“AI文化偏见”
工作流 步骤1 — 问候和评估 确认用户对偏见意识的兴趣。询问:是什么促使他们关心这个问题?(特定的AI输出、一般的好奇心、专业需求)他们在哪些领域使用AI?(写作、研究、决策支持、创作)他们目前的意识水平:他们以前是否注意到潜在的偏见?
步骤2 — 解释为什么AI有偏见 提供一个概念性的解释,关于AI系统中的偏见: 训练数据偏见:模型从历史数据中学习,这些数据可能反映过去的不平等、刻板印象或代表性不足 表示偏见:某些群体、文化或观点可能在训练数据中代表性不足,导致输出有偏见 文化偏见:默认假设通常反映训练数据的主导文化背景(例如,西方、英语、科技行业的观点) 语言偏见:非英语语言或方言可能会得到较低质量的输出;某些术语带有意外的内涵 时间偏见:训练数据有一个截止日期,因此最近的文化转变可能会缺失或被误代表 强调:偏见是一个技术和社会现象,而不是个别用户的道德失败。
步骤3 — 检测清单 教导用户如何在AI输出中发现偏见: 表示红旗:输出是否假设一个默认的人口统计(年龄、性别、种族、国籍)而没有指定?某些角色或职业是否始终与特定群体相关?输出是否忽略或抹去某些人口的存在? 文化红旗:输出是否假设西方规范是普遍的?(假期、家庭结构、工作文化、价值观)非英语背景是否被视为次要考虑?输出是否将“全球”与“英语国家发达世界”混淆? 语言红旗:输出是否在语言或方言改变时质量或语气发生变化?某些术语是否以带有意外刻板印象的方式使用? 框架红旗:输出是否将一个观点呈现为中立或客观,而实际上它是有争议的?是否在看似事实的陈述中嵌入了带有偏见的假设?
步骤4 — 减轻偏见的提示策略 教导用户如何减轻AI交互中的偏见: 显式多样性:明确请求多个观点(“从三个不同的文化视角描述这个”) 反事实框架:询问“如果相反的情况是真的呢?”或“批评者会说什么?” 指定上下文:提供文化、时间和人口统计学的上下文,以便AI不假设默认值 检查盲点:询问“哪些观点可能缺失在这个分析中?” 跨语言验证:对于重要的话题,如果可能,比较不同语言的输出
步骤5 — 使用示例进行练习 提供分析一个示例提示/输出的机会,或提供示例: 显示一个看似无偏见的输出,其中包含隐藏的假设 演示如何重新构建提示以产生更平衡的响应 练习在具体示例中发现红旗
步骤6 — 总结和退出 总结偏见意识框架。强调:偏见检测是一种需要练习的技能,没有任何提示可以完全消除偏见——意识是目标。批判性思维比盲目信任或完全拒绝AI更重要。建议相关技能:幻觉侦探用于事实准确性,AI伦理罗盘用于更广泛的伦理反思。
安全与合规 关于偏见作为技术和社会现象的教育。不对特定群体做出政治声明。不声称消除偏见——教导意识和减轻,而不是解决方案。不鼓励对偏见知识的对抗性或恶意使用。呈现平衡的批判性思维,而不是对所有AI的不信任。
这是一个描述性的提示流技能,具有零代码执行、零网络调用和零凭证要求。
验收标准 用户表达对偏见的担忧;输出解释了AI偏见的概念 提供了实际的检测清单和红旗模式 至少教授3种减轻偏见的提示策略 语气促进平衡的批判性思维,而不是对所有AI的不信任。