首页龙虾技能列表 › LiteLLM — 统一 API 访问 100+ 大语言模型

LiteLLM — 统一 API 访问 100+ 大语言模型

v1.0.0

通过 LiteLLM 的统一 API 调用 100+ 个大语言模型。适用于需要调用不同于主模型的场景,如代码审查、模型输出比较、路由到较便宜的模型进行简单任务或访问运行时不支持的模型。

1· 1,707·11 当前·12 累计·💬 2
by @ishaan-jaff·MIT-0
下载技能包
License
MIT-0
最后更新
2026/3/1
安全扫描
VirusTotal
无害
查看报告
OpenClaw
可疑
medium confidence
技能行为与描述一致,但存在未声明的 API 密钥使用和未固定版本的 pip 安装指令等小风险,需了解前安装。
评估建议
技能与目的相符,但安装前需注意:验证 PyPI 或官方文档中的 litellm 包源/版本,预计提供 API 密钥(OpenAI、Anthropic 或 LiteLLM 代理密钥),发送的提示可能传输到第三方提供商,考虑部署并指向可信的 LiteLLM 代理,若需更高保证,可要求发布者提供主页、包签名或明确声明环境变量。...
详细分析 ▾
用途与能力
技能代码和 SKILL.md 实现了一个通用的 LiteLLM 客户端,用于调用多个 LLM 提供商,这与名称/描述一致。然而,注册元数据未声明任何必需的环境变量或主要凭证,而文档和代码明确预期 API 密钥(例如 LITELLM_API_KEY、OPENAI_API_KEY、ANTHROPIC_API_KEY 或代理密钥)。这是一个不一致性(可能是元数据懒惰),但本身不是恶意的证据。
指令范围
运行时指令和包含的脚本保持在定义的目的范围内:构建消息并调用 litellm.completion(可选通过代理)。指令不要求代理读取无关文件或系统秘密。它们指示用户设置提供商 API 密钥和一个可选的代理端点,这将导致提示被传输到外部 LLM 提供商(对于此技能这是预期的)。
安装机制
注册表中没有正式的安装规格(仅指令),而 SKILL.md 建议使用 'pip install litellm',没有版本或源验证。从 PyPI 安装一个未固定版本的包是常见的,但会增加风险;您应该在安装前验证包的来源和完整性(官方项目,预期维护者)。
凭证需求
虽然提供商 API 密钥对于多提供商的 LLM 调用者是合适的,但注册元数据未列出任何必需的环境变量,而 SKILL.md 和脚本引用了几个敏感变量(LITELLM_API_BASE、LITELLM_API_KEY、OPENAI_API_KEY、ANTHROPIC_API_KEY)。这种不匹配意味着技能可能会访问或需要未预先声明的敏感凭证。另外,请注意,任何提示和相关数据将被发送到绑定到这些密钥的外部服务 —— 考虑数据敏感性影响。
持久化与权限
技能不是始终启用,不请求提升或持久的系统权限,也不修改其他技能的配置。默认允许自主调用,但这里不与其他高风险属性结合。
安全有层次,运行前请审查代码。

License

MIT-0

可自由使用、修改和再分发,无需署名。

运行时依赖

无特殊依赖

版本

latestv1.0.02026/2/8

初始发布 - 通过统一 API 调用 100+ 个大语言模型

● 无害

安装命令 点击复制

官方npx clawhub@latest install litellm
镜像加速npx clawhub@latest install litellm --registry https://cn.clawhub-mirror.com

技能文档

LiteLLM — 多模型 LLM 调用

使用 LiteLLM 当您需要调用超出主模型的 LLM。

何时使用

  • 模型比较:从多个模型获取输出并比较
  • 专用路由:使用代码优化模型进行代码审查,使用写作模型进行文本生成
  • 成本优化:将简单查询路由到更便宜的模型
  • Fallback 访问:访问运行时不支持的模型

快速开始

import litellm
# 通过统一 API 调用任意模型
response = litellm.completion(
    model="gpt-4o",
    messages=[{"role": "user", "content": "解释这段代码"}]
)
print(response.choices[0].message.content)

常见模式

比较多个模型

import litellm
prompt = [{"role": "user", "content": "什么是 X 的最佳方法?"}]
models = ["gpt-4o", "claude-sonnet-4-20250514", "gemini/gemini-1.5-pro"]
for model in models:
    resp = litellm.completion(model=model, messages=prompt)
    print(f"{model}: {resp.choices[0].message.content[:200]}...")

根据任务类型路由

import litellm
def smart_call(task_type: str, prompt: str) -> str:
    model_map = {
        "code": "gpt-4o",  # 代码强项
        "writing": "claude-sonnet-4-20250514",  # 文本强项
        "simple": "gpt-4o-mini",  # 简单任务廉价选项
        "reasoning": "o1-preview",  # 深度推理
    }
    model = model_map.get(task_type, "gpt-4o")
    resp = litellm.completion(
        model=model, messages=[{"role": "user", "content": prompt}]
    )
    return resp.choices[0].message.content

使用 LiteLLM 代理(推荐)

如果有 LiteLLM 代理可用,指向它以实现缓存、限速和可观察性:
import litellm
litellm.api_base = "https://your-litellm-proxy.com"
litellm.api_key = "sk-your-key"
response = litellm.completion(
    model="gpt-4o",  # 代理路由到配置的提供商
    messages=[{"role": "user", "content": "Hello"}]
)

环境设置

确保 litellm 安装并设置 API 密钥:
pip install litellm
# 设置提供商密钥(或在代理中配置)
export OPENAI_API_KEY="sk-..."
export ANTHROPIC_API_KEY="sk-..."

模型参考

常见模型标识符:
  • OpenAIgpt-4ogpt-4o-minio1-previewo1-mini
  • Anthropicclaude-sonnet-4-20250514claude-opus-4-20250514
  • Googlegemini/gemini-1.5-progemini/gemini-1.5-flash
  • Mistralmistral/mistral-large-latest
完整列表:https://docs.litellm.ai/docs/providers

数据来源:ClawHub ↗ · 中文优化:龙虾技能库
OpenClaw 技能定制 / 插件定制 / 私有工作流定制

免费技能或插件可能存在安全风险,如需更匹配、更安全的方案,建议联系付费定制

了解定制服务