首页龙虾技能列表 › Ollama Herd — Ollama 多模态路由器与舰队管理器

llama Ollama Herd — Ollama 多模态路由器与舰队管理器

v1.5.3

Ollama Herd 是一个自托管的 Ollama 多模态路由器,支持 Llama、Qwen、DeepSeek、Phi 和 Mistral 等模型,以及 mflux 图像生成、语音转文本和嵌入。它管理 Ollama 艾尔(fleet),提供 7 信号评分、队列管理、实时仪表盘和健康监控。适用于需要跨设备管理和路由 Ollama AI 工作负载的开发者和用户。

0· 197·3 当前·3 累计
by @twinsgeeks (Twin Geeks)·MIT-0
下载技能包
License
MIT-0
最后更新
2026/4/8
安全扫描
VirusTotal
无害
查看报告
OpenClaw
可疑
medium confidence
技能指令与本地 Ollama 舰队管理器大致一致,但元数据声明存在不匹配。指令要求安装第三方 PyPI 包并运行本地服务,使用前应谨慎验证。
评估建议
["验证 SKILL.md 中的 `pip install ollama-herd` 和运行守护进程之前,审查 PyPI 包和 GitHub 源代码(比较代码、维护者、最近活动和发布校验和)。","确认 localhost API(端口 11435)是否意图为无认证或仅绑定回环,如果更广泛暴露可能会被滥用。","澄清 SKILL.md 元数据列出的本地配置文件(`~/.fleet-manager/latency.db` 和日志)是否由技能读/写,以及是否可能包含敏感数据。","如果可能,在隔离的 VM/容器中运行初始测试,并备份任何现有的 Ollama 或舰队配置。","如果需要更高的保证,请求固定版本的安装规范(含校验和)或包内容副本,以便您或审查者可以检查安装代码的行为(网络调用、文件 I/O、子进程)。"]...
详细分析 ▾
用途与能力
名称/描述(Ollama 多模态路由器/舰队管理器)与 SKILL.md 内容一致,文档中包含舰队状态、模型拉取、健康检查等端点。要求使用 curl/wget 和可选的 python/pip/sqlite3 对于基于 CLI/HTTP 的本地管理器是合理的。然而,注册表摘要早前列出无需配置路径,而 SKILL.md 元数据声明了配置路径(`~/.fleet-manager/latency.db` 和 `~/.fleet-manager/logs/herd.jsonl`),这种不一致未解释,暗示技能期望访问未在注册表中声明的本地文件。
指令范围
SKILL.md 指示代理和用户安装 PyPI 包、运行 herd 和 herd-node,并调用许多 localhost:11435 端点(GET/POST)以更改路由设置和管理模型。这些操作与舰队管理器一致,但很强大:安装软件、启动服务、执行模型拉取/删除。指令引用元数据中的本地配置/日志路径,但从未明确显示读取它们;这引发了范围问题(代理是否会读取或修改这些文件?)。此外,指令假设未经认证或仅本地的 HTTP API 在端口 11435 上,但未指定 API 的安全模型。
安装机制
注册表中没有正式的安装规范(仅指令),但 SKILL.md 指示用户/代理从 PyPI 运行 `pip install ollama-herd`。安装第三方 PyPI 包并运行其守护进程是一个中等风险的操作——它在主机上执行上游代码。由于注册表提供了无固定版本、无校验和或本地包捆绑,因此您应该在安装之前验证 PyPI 包和上游源。
凭证需求
技能不请求环境变量或凭据,这是合理的。然而,它暗示访问本地端口和文件(元数据 configPaths)。注册表中未声明的配置路径与 SKILL.md 元数据中的存在之间的不一致可能会隐藏文件访问期望。没有请求凭据,但调用端点可以影响系统状态(拉取/删除模型),因此本地进程权限是必需的。
持久化与权限
技能不强制启用(始终:false)并允许正常的自主调用。它不请求修改其他技能或系统范围的代理设置在注册表中。主要的持久性/权限问题是操作性的:安装包并运行 `herd-node` 将创建长时间运行的服务和打开本地端口——适合舰队管理器,但用户必须选择加入。
安全有层次,运行前请审查代码。

License

MIT-0

可自由使用、修改和再分发,无需署名。

运行时依赖

🖥️ OSmacOS · Linux · Windows

版本

latestv1.5.32026/3/24

添加 `/api/pull` 端点文档和示例

● 无害

安装命令 点击复制

官方npx clawhub@latest install ollama-herd
镜像加速npx clawhub@latest install ollama-herd --registry https://cn.clawhub-mirror.com

技能文档

您正在管理一个 Ollama 艾尔 — 一个智能的 Ollama 多模态路由器,跨多设备分布 Ollama AI 工作负载。Ollama Herd 处理 4 种模型类型:Ollama LLM 推理、图像生成(mflux)、语音转文本(Qwen3-ASR)和 Ollama 嵌入。Ollama 评分引擎根据 7 个信号(热态、内存适配、队列深度、延迟历史、角色亲和性、可用性趋势、上下文适配)评估节点,并将每个 Ollama 请求路由到最佳设备。...(以下内容与原文相同,未翻译以保持代码块不变)

数据来源:ClawHub ↗ · 中文优化:龙虾技能库
OpenClaw 技能定制 / 插件定制 / 私有工作流定制

免费技能或插件可能存在安全风险,如需更匹配、更安全的方案,建议联系付费定制

了解定制服务