LiteLLM — 统一 API 访问 100+ 大语言模型
v1.0.0通过 LiteLLM 的统一 API 调用 100+ 个大语言模型。适用于需要调用不同于主模型的场景,如代码审查、模型输出比较、路由到较便宜的模型进行简单任务或访问运行时不支持的模型。
1· 1,707·11 当前·12 累计·💬 2
安全扫描
OpenClaw
可疑
medium confidence技能行为与描述一致,但存在未声明的 API 密钥使用和未固定版本的 pip 安装指令等小风险,需了解前安装。
评估建议
技能与目的相符,但安装前需注意:验证 PyPI 或官方文档中的 litellm 包源/版本,预计提供 API 密钥(OpenAI、Anthropic 或 LiteLLM 代理密钥),发送的提示可能传输到第三方提供商,考虑部署并指向可信的 LiteLLM 代理,若需更高保证,可要求发布者提供主页、包签名或明确声明环境变量。...详细分析 ▾
ℹ 用途与能力
技能代码和 SKILL.md 实现了一个通用的 LiteLLM 客户端,用于调用多个 LLM 提供商,这与名称/描述一致。然而,注册元数据未声明任何必需的环境变量或主要凭证,而文档和代码明确预期 API 密钥(例如 LITELLM_API_KEY、OPENAI_API_KEY、ANTHROPIC_API_KEY 或代理密钥)。这是一个不一致性(可能是元数据懒惰),但本身不是恶意的证据。
✓ 指令范围
运行时指令和包含的脚本保持在定义的目的范围内:构建消息并调用 litellm.completion(可选通过代理)。指令不要求代理读取无关文件或系统秘密。它们指示用户设置提供商 API 密钥和一个可选的代理端点,这将导致提示被传输到外部 LLM 提供商(对于此技能这是预期的)。
ℹ 安装机制
注册表中没有正式的安装规格(仅指令),而 SKILL.md 建议使用 'pip install litellm',没有版本或源验证。从 PyPI 安装一个未固定版本的包是常见的,但会增加风险;您应该在安装前验证包的来源和完整性(官方项目,预期维护者)。
⚠ 凭证需求
虽然提供商 API 密钥对于多提供商的 LLM 调用者是合适的,但注册元数据未列出任何必需的环境变量,而 SKILL.md 和脚本引用了几个敏感变量(LITELLM_API_BASE、LITELLM_API_KEY、OPENAI_API_KEY、ANTHROPIC_API_KEY)。这种不匹配意味着技能可能会访问或需要未预先声明的敏感凭证。另外,请注意,任何提示和相关数据将被发送到绑定到这些密钥的外部服务 —— 考虑数据敏感性影响。
✓ 持久化与权限
技能不是始终启用,不请求提升或持久的系统权限,也不修改其他技能的配置。默认允许自主调用,但这里不与其他高风险属性结合。
安全有层次,运行前请审查代码。
运行时依赖
无特殊依赖
版本
latestv1.0.02026/2/8
初始发布 - 通过统一 API 调用 100+ 个大语言模型
● 无害
安装命令 点击复制
官方npx clawhub@latest install litellm
镜像加速npx clawhub@latest install litellm --registry https://cn.clawhub-mirror.com
技能文档
LiteLLM — 多模型 LLM 调用
使用 LiteLLM 当您需要调用超出主模型的 LLM。
何时使用
- 模型比较:从多个模型获取输出并比较
- 专用路由:使用代码优化模型进行代码审查,使用写作模型进行文本生成
- 成本优化:将简单查询路由到更便宜的模型
- Fallback 访问:访问运行时不支持的模型
快速开始
import litellm
# 通过统一 API 调用任意模型
response = litellm.completion(
model="gpt-4o",
messages=[{"role": "user", "content": "解释这段代码"}]
)
print(response.choices[0].message.content)
常见模式
比较多个模型
import litellm
prompt = [{"role": "user", "content": "什么是 X 的最佳方法?"}]
models = ["gpt-4o", "claude-sonnet-4-20250514", "gemini/gemini-1.5-pro"]
for model in models:
resp = litellm.completion(model=model, messages=prompt)
print(f"{model}: {resp.choices[0].message.content[:200]}...")
根据任务类型路由
import litellm
def smart_call(task_type: str, prompt: str) -> str:
model_map = {
"code": "gpt-4o", # 代码强项
"writing": "claude-sonnet-4-20250514", # 文本强项
"simple": "gpt-4o-mini", # 简单任务廉价选项
"reasoning": "o1-preview", # 深度推理
}
model = model_map.get(task_type, "gpt-4o")
resp = litellm.completion(
model=model, messages=[{"role": "user", "content": prompt}]
)
return resp.choices[0].message.content
使用 LiteLLM 代理(推荐)
如果有 LiteLLM 代理可用,指向它以实现缓存、限速和可观察性:import litellm
litellm.api_base = "https://your-litellm-proxy.com"
litellm.api_key = "sk-your-key"
response = litellm.completion(
model="gpt-4o", # 代理路由到配置的提供商
messages=[{"role": "user", "content": "Hello"}]
)
环境设置
确保litellm 安装并设置 API 密钥:
pip install litellm
# 设置提供商密钥(或在代理中配置)
export OPENAI_API_KEY="sk-..."
export ANTHROPIC_API_KEY="sk-..."
模型参考
常见模型标识符:- OpenAI:
gpt-4o、gpt-4o-mini、o1-preview、o1-mini - Anthropic:
claude-sonnet-4-20250514、claude-opus-4-20250514 - Google:
gemini/gemini-1.5-pro、gemini/gemini-1.5-flash - Mistral:
mistral/mistral-large-latest
数据来源:ClawHub ↗ · 中文优化:龙虾技能库
OpenClaw 技能定制 / 插件定制 / 私有工作流定制
免费技能或插件可能存在安全风险,如需更匹配、更安全的方案,建议联系付费定制