📦 LLM Wiki — LLM 维基
v0.1.0创建并维护一个持久的LLM维护的知识库(wiki),遵循Andrej Karpathy的模式。LLM积极构建和维护相互连接...
运行时依赖
版本
人机大语言模型协作
安装命令
点击复制技能文档
LLM Wiki 技能 创建和维护一个持久的LLM维护的知识库(wiki),遵循Andrej Karpathy的模式。与传统的RAG不同,LLM不需要从头开始重新发现知识,而是可以积极地构建和维护相互连接的markdown文件,形成一个不断增长的、可搜索的知识库。
概述 本技能实现了Andrej Karpathy的LLM Wiki概念: 原始来源 → 不可变的源文档集合 wiki → 由LLM生成的、相互连接的markdown文件,完全由LLM拥有 schema → 配置文件,告诉LLM如何结构和维护wiki LLM成为一个有纪律的wiki维护者,而不是一个通用的聊天机器人,处理所有的记录、交叉引用和知识综合。
文件夹结构 当初始化时,本技能创建: llm-wiki/ ├── raw/ # 源文档(不可变) ├── wiki/ │ ├── entities/ # 人物、模型、组织页面 │ ├── concepts/ # 技术、理论、方法 │ ├── sources/ # 源摘要和分析 │ └── logs/ # 活动日志(可选) ├── index.md # 自动生成的所有wiki页面目录 ├── log.md # 活动的时间记录 └── SCHEMA.md # LLM wiki维护者的配置
核心工作流程
- 摄取来源
- 查询知识
- wiki维护(Lint)
人机协作 人类责任: 策划和添加来源到raw/ 直接分析和提出问题 解决冲突并提供背景 思考含义和意义 LLM责任: 阅读和理解源材料 提取和整合知识到wiki 维护交叉引用和一致性 更新摘要当新信息到达时 标记矛盾和不确定性 处理所有记录和维护 永远不修改原始源文档
使用 初始设置 该技能自动创建文件夹结构和基础文件当第一次使用时。 添加来源 将文档放置在llm-wiki/raw/中 告诉代理:“请处理我添加的新来源” 代理将摄取和整合知识 提出问题 自然地提出关于您的知识库的问题 代理将查阅wiki并提供带有引用的答案 代理可能会建议将见解作为新的wiki页面 维护 代理将定期建议运行wiki健康检查 或者您可以请求:“请运行wiki的Lint检查”
配置 SCHEMA.md文件在wiki根目录中包含详细的配置: 命名约定 可选的前置格式 特定的工作流程细节 输出格式指南 工具集成提示(Obsidian、qmd、git等)
示例交互流程 人类:“我已经添加了一个关于LLM量化技术的新论文到raw/中” 代理:阅读论文 发现关键点:量化减少模型大小,提高推理速度,技术如GPTQ、AWQ 创建/更新wiki/sources/paper-title.md的摘要 更新概念页面wiki/concepts/quantization.md 更新实体页面为任何提到的模型/研究人员 更新index.md并追加到log.md 报告:“我已经处理了论文并更新了量化概念页面。您想讨论任何特定的发现吗?” 人类:“GPTQ和AWQ有什么区别?” 代理:检查索引以找到相关页面 从wiki/concepts/quantization.md和相关实体页面中阅读和综合 带有引用的答案比较两种技术 建议:“这种比较可以作为新的wiki页面。您想让我创建wiki/concepts/gptq-vs-awq.md吗?” 记录查询
优点 与传统RAG相比 复合知识:每个来源使wiki更加有价值,而不仅仅是添加到检索语料库中 零维护成本:LLM处理所有记录、交叉引用和一致性 持久综合:知识被编译一次并保持当前,而不是每次查询重新派生 探索价值:答案可以成为新的wiki页面,使探索永久化 透明组织:人类导航结构,具有清晰的类别和链接
要求 基本文件系统访问