运行时依赖
无特殊依赖
版本
latestv1.0.1
memory_search("...") 或 openclaw memory search "..." 返回结果的提供者为 ollama
安装命令
点击复制官方npx clawhub@latest install ollama-semantic-search
镜像加速npx clawhub@latest install ollama-semantic-search --registry https://cn.longxiaskill.com镜像同步中
技能文档
Ollama 内存设置 使用此技能使 OpenClaw 的 memory_search 在本地使用 Ollama 嵌入代替易碎的原生 node-llama-cpp 构建或付费的托管嵌入 API 工作。 什么是成功的设置 正确的设置包括以下所有内容:
- Ollama 已安装并可以在 http://localhost:11434 访问
- 嵌入模型已拉取,通常为 nomic-embed-text
- OpenClaw 配置显式设置 agents.defaults.memorySearch.provider 为 ollama
- 内存索引在配置更改后重建
- memory_search("...") 或 openclaw memory search "..." 返回提供者 ollama 的结果
- 在更改任何内容之前进行预检
- command -v ollama
- curl -s http://localhost:11434/api/tags
- ollama 列表 | grep -E 'nomic-embed-text|qwen.*embedding'
- openclaw 内存状态 --deep
- 安装或启动 Ollama
- 拉取嵌入模型
- 配置 OpenClaw 内存搜索
- 重新索引和验证
- memory_search 仍然显示为禁用
- Ollama 已安装但不可达
- 模型已拉取但 OpenClaw 仍然使用其他提供者
- 索引速度慢或没有返回有用的结果
- 配置命令失败或安装的 OpenClaw CLI 比配置文件旧
- 永远不要将秘密粘贴到 openclaw.json 中以进行此设置。
- Ollama 本地嵌入不需要真实的 API 密钥。
- 除非用户了解网络/安全风险,否则不要将 Ollama 绑定到 0.0.0.0。
- 不要删除现有的内存文件以“修复”搜索。
- 重新索引。
- 在进行真正的 memory_search/openclaw 内存搜索验证之前,不要承诺语义质量。