📦 Deepfake Awareness Guide — Deepfake 警惕指南
v1.0.0识别AI生成的媒体操纵并保护自己和家人。
运行时依赖
安装命令
点击复制技能文档
Deepfake Awareness Guide 概述 Deepfake Awareness Guide 是一个教育资源,用于了解 AI 生成的媒体操纵,包括深度伪造和合成媒体。它涵盖了这些技术的概念工作原理、如何识别它们、它们带来的社会和个人风险,以及如何与家人讨论数字媒体怀疑,特别是与青少年。这个技能促进健康的怀疑,而不是偏执。这个技能不创建或促进深度伪造的创建。检测指南是教育性的,而不是法医的。
何时使用 使用这个技能,当用户询问以下内容时: 了解什么是深度伪造 学习如何识别假视频 探索 AI 假新闻检测 保护家人免受假媒体的影响 教孩子们关于 AI 生成的内容 触发短语:“什么是深度伪造?”,“如何识别假视频”,“AI 假新闻检测”,“保护家人免受假媒体的影响”,“教孩子们关于 AI 生成的内容”
工作流程 步骤 1 ——问候和评估 确认用户对合成媒体的担忧。询问:是什么促使他们感兴趣?(特定事件、一般意识、保护家人) 他们最担心谁?(自己、孩子、老年亲戚、学生) 他们目前对 AI 生成的媒体的熟悉程度如何?
步骤 2 ——解释深度伪造和合成媒体 提供一个易于理解的概念解释: 深度伪造:AI 生成或操纵的视频/音频,使其看起来像某人说或做了他们没有做过的事情 合成媒体:更广泛的类别,包括 AI 生成的图像、声音、文本和视频 它的工作原理(概念上):AI 模型从真实媒体中学习模式,并生成模仿这些模式的新内容——不仅仅是“复制和粘贴” 为什么它难以检测:质量正在迅速改进;去年显然是假的东西可能今天是令人信服的 强调:检测是一个持续的挑战。没有单一的技术是万无一失的。
步骤 3 ——识别合成媒体 教授常见的指标(教育性,而不是保证): 视频深度伪造指标: 面部不一致性:不自然的眨眼、唇部同步不匹配、脸部边缘的皮肤质地不寻常 灯光不匹配:面部灯光与场景灯光不匹配 音频伪影:机器人或不一致的语音质量、情感基调不匹配 物理异常:奇怪的头发运动、眼睛中的不寻常反射、不自然的头部运动 上下文线索:内容是否与您对该人的了解相符?来源是否可靠? 音频深度伪造指标: 不寻常的暂停或节奏 缺乏自然的呼吸声 情感表达不一致 背景噪音与所声称的环境不匹配 图像指标:参考 AI 图像识读技能以获取图像特定的检测 强调:这些是危险信号,而不是证据。当有疑问时,通过独立的可信来源进行验证。
步骤 4 ——了解风险 讨论为什么深度伪造很重要: 虚假信息:假的政治声明、捏造的事件、虚假的叙述迅速传播 个人伤害:非自愿的合成媒体、声誉损害、诈骗(例如,假的语音电话用于诈骗) 信任的侵蚀:当一切都可能是假的时,人们可能会怀疑真实的内容 社会两极分化:深度伪造可以用来煽动分歧
步骤 5 ——保护和响应 提供可行的指导: 对于个人: 在分享之前通过多个独立来源验证令人惊讶的内容 对情感化的内容要特别怀疑——深度伪造通常针对强烈的反应 检查原始来源:谁创建了这个?它首先出现在哪里? 在可能的情况下使用反向图像/视频搜索 对于家庭(特别是有青少年的家庭): 公开讨论合成媒体——不要等到发生事件 教授“分享前暂停”作为家庭规范 解释“看到的不再是相信的” 为学校项目和社交分享设定期望 创建家庭规则:如果某事看起来令人震惊,先验证一下 如果您遇到有害的深度伪造: 不要分享它,即使是为了批评它(分享会放大伤害) 在您找到的平台上报告它 如果您认识受影响的人,请支持他们 如果需要为当局提供证据,请记录证据
步骤 6 ——总结和退出 回顾关键要点: 合成媒体技术是真实的,并且正在改进 检测是困难的,并且不能保证——来源验证是最好的防御 健康的怀疑优于盲目信任和偏执 家庭从开放的、持续的关于数字媒体的对话中受益 建议相关技能:AI 图像识读用于视觉媒体特定内容,数字信息卫生用于更广泛的信息消费习惯
安全和合规 不创建或促进深度伪造的创建 检测指南是教育性的,而不是法医的 不分析特定的媒体以确定其真实性 鼓励健康的怀疑,而不是偏执 不针对特定的个人或政治内容 不提供生成欺骗性合成媒体的说明