📦 Kiro Cli Openclaw Bridge — Kiro Cli Openclaw 桥接器
v1.0.2通过本地 ACP-to-OpenAI Bridge 将 OpenClaw(或任何 OpenAI 兼容客户端)连接到 kiro-cli 的 ACP 后端,支持流式响应和工具调用。 (由于原文已经包含中文,因此只需对其中的英文部分进行翻译即可,然而原文已经是中文,因此无需翻译) 然而,如果我们要将其翻译成更流畅的中文,可以这样表达: 通过本地 ACP-to-OpenAI Bridge,将OpenClaw(或其他兼容OpenAI的客户端)连接到kiro-cli的ACP后端,从而支持流式响应和工具调用。
运行时依赖
安装命令
点击复制技能文档
Kiro CLI 与 OpenClaw 集成 本地代理将 OpenAI/Anthropic API 请求转换为 ACP JSON-RPC 调用,允许 OpenClaw 和其他 OpenAI 兼容客户端使用 kiro-cli 作为 AI 后端。 架构 OpenClaw / 任意客户端 ──HTTP──▶ Bridge (FastAPI) ──stdio──▶ kiro-cli acp :18788/v1 JSON-RPC 2.0 从零开始完整搭建指南 步骤 1:安装 kiro-cli # 下载安装 kiro-cli(如已安装跳过) # 参考 kiro 官方文档安装,确保 kiro-cli 在 PATH 中 which kiro-cli # 验证安装 步骤 2:认证 kiro-cli kiro-cli auth # 按提示完成登录认证,确保能正常使用 # 验证: kiro-cli acp --help # 应显示帮助信息 步骤 3:获取 Bridge 推荐从 GitHub Releases 下载预编译二进制(无需 Python 环境): # 下载预编译二进制(约 15MB,支持 Linux/WSL 和 macOS) # https://github.com/LuoShiXi/kiro-cli-openclaw-bridge/releases # 或从源码构建: git clone https://github.com/LuoShiXi/kiro-cli-openclaw-bridge.git cd kiro-cli-openclaw-bridge 步骤 4:安装 Python 环境(源码运行方式) # 需要 Python 3.10+ python3 --version # 验证版本 # 创建虚拟环境 python3 -m venv .venv source .venv/bin/activate # 安装依赖 pip install -r requirements.txt 依赖清单(requirements.txt): fastapi==0.115.12 uvicorn==0.34.3 pytest==8.3.5 pytest-asyncio==0.25.3 pyinstaller==6.12.0 步骤 5:启动 Bridge # 方式 A:源码运行 source .venv/bin/activate python -m acp_openai_bridge.main --cwd /your/project # 方式 B:使用预编译二进制(如已构建) ./dist/acp-bridge --cwd /your/project # 方式 C:构建后运行 ./build.sh ./dist/acp-bridge --cwd /your/project 指定模型(可选): python -m acp_openai_bridge.main --cwd /your/project --model claude-sonnet-4-20250514 启动成功标志: ACP-to-OpenAI Bridge running at http://127.0.0.1:18788 步骤 6:验证 Bridge 运行 # 健康检查 curl http://127.0.0.1:18788/health # 应返回:{"status":"ok","acp_available":true} # 模型列表 curl http://127.0.0.1:18788/v1/models # 应返回包含 kiro-acp 的模型列表 # 快速测试对话 curl -X POST http://127.0.0.1:18788/v1/chat/completions \ -H "Content-Type: application/json" \ -d '{"model":"kiro-acp","messages":[{"role":"user","content":"hello"}],"stream":false}' 步骤 7:配置 OpenClaw 编辑 ~/.openclaw/openclaw.json,在 models.providers 中添加: { "models": { "mode": "merge", "providers": { "kiro-b": { "api": "openai-completions", "baseUrl": "http://127.0.0.1:18788/v1", "apiKey": "any-value", "models": [ { "id": "kiro-acp", "name": "Kiro ACP", "input": ["text"], "contextWindow": 200000, "maxTokens": 65536 } ] } } } } 设置为默认模型(可选),在 agents.defaults 中添加: { "agents": { "defaults": { "model": { "primary": "kiro-b/kiro-acp" }, "models": { "kiro-b/kiro-acp": { "alias": "Kiro" } } } } } 重启 OpenClaw 即可使用。 保存后在 OpenClaw 中选择该 Provider 和 kiro-acp 模型即可开始对话。 命令行参数 参数 环境变量 默认值 说明 --host ACP_BRIDGE_HOST 127.0.0.1 监听地址 --port ACP_BRIDGE_PORT 18788 监听端口 --kiro-cli-path ACP_BRIDGE_KIRO_CLI_PATH 自动查找 kiro-cli 路径 --cwd ACP_BRIDGE_CWD 当前目录 ACP 会话工作目录 --timeout ACP_BRIDGE_TIMEOUT 300 请求超时(秒) --model ACP_BRIDGE_MODEL kiro-cli 默认 模型 ID API 端点 Method Path Description POST /v1/chat/completions OpenAI 聊天补全(支持 stream: true) POST /v1/messages Anthropic Messages API(支持 stream: true) GET /v1/models 模型列表 GET /health 健康检查 流式响应 当 stream: true 时: Bridge 发送 session/prompt 到 ACP 子进程 持续读取 session/update 中的 agent_message_chunk 实时转换为 OpenAI SSE chat.completion.chunk 格式 完成后发送 finish_reason 和 [DONE] 工具执行 Bridge 透传 kiro-cli 的内置工具能力(文件读写、终端等),所有操作受限于 --cwd 指定的项目目录,且遵循 kiro-cli 自身的权限控制机制。建议仅在信任的项目目录中使用,并保持服务绑定在 localhost。 故障排查 问题 解决方案 Bridge 启动但无响应 确认 kiro-cli auth 已完成;检查 --cwd 指向有效目录 Agent 卡在 tool_call stdout 缓冲区已设为 10MB;检查日志是否有 readline buffer overflow OpenClaw 连接被拒 curl http://127.0.0.1:18788/health 验证 bridge 运行中 超时错误 增大 --timeout 600;复杂任务需要更多时间 kiro-cli 找不到 用 --kiro-cli-path /path/to/kiro-cli 显式指定 平台支持 平台 说明 WSL (Linux) 主要开发平台,自动检测 WSL macOS ARM (M1/M2) 支持,自动查找 Homebrew 安装的 kiro-cli macOS Intel 支持,查找 /usr/local/bin/kiro-cli 构建打包 ./build.sh # 构建单文件可执行程序 → dist/acp-bridge (~15MB) ./build.sh clean # 清理构建产物 构建后的二进制无需 Python 环境即可运行。 项目地址 GitHub:https://github.com/LuoShiXi/kiro-cli-openclaw-bridge