📦 LLM Supervisor — 自动切换云端/本地LLM大模型(限速自动切换,需确认本地代码生成)

v0.2.0

自动在云端和本地LLM大模型之间切换,基于限速触发,需要用户确认才进行本地代码生成。监控云端LLM错误,切换到本地Ollama模型,并为本地代码生成提供防护机制。

1· 1.5k·0 当前·0 累计
by @dhardie·MIT-0
下载技能包
License
MIT-0
最后更新
2026/2/26
0
安全扫描
VirusTotal
无害
查看报告
OpenClaw
安全
high confidence
该技能的代码和运行指令与其声明的目的相符:监控云端LLM错误,并带有本地代码生成防护机制,切换到本地Ollama模型。
安全有层次,运行前请审查代码。

License

MIT-0

可自由使用、修改和再分发,无需署名。

运行时依赖

无特殊依赖

版本

latestv0.2.02026/2/5

基于限速检测的云端/本地LLM切换,带有安全确认

无害

安装命令

点击复制
官方npx clawhub@latest install llm-supervisor-agent
🇨🇳 镜像加速npx clawhub@latest install llm-supervisor-agent --registry https://cn.longxiaskill.com

技能文档

概述

自动在云端和本地LLM大模型之间切换,基于限速触发,需要用户确认才进行本地代码生成。

功能特点

  • 监控云端LLM错误,切换到本地Ollama模型
  • 本地代码生成需用户确认
  • 支持云端/本地LLM模式切换

安装和配置

  • 确保本地Ollama运行在 http://127.0.0.1:11434
  • 根据需要配置 confirmationPhrase、localModel 和 cooldownMinutes
  • 默认启用,安装后即生效,建议测试后再启用

使用示例

  • 当云端LLM触发限速时,自动切换到本地LLM
  • 用户通过输入确认短语授权本地代码生成

# 代码示例(保留原代码,不翻译)

// 示例代码
数据来源:ClawHub ↗ · 中文优化:龙虾技能库