📦 AutoResearch — 自动研究

v1.0.0

Pipeline通过轮换主题,每晚自动从arXiv、GitHub、Hacker News、Brave Search获取信息,并生成结构化markdown报告,通过Telegr...

0· 7·0 当前·0 累计
下载技能包
最后更新
2026/4/19
0
安全扫描
VirusTotal
Pending
查看报告
OpenClaw
可疑
high confidence
该技能基本兑现了承诺,但存在明显不匹配和过度访问模式(尤其是一个虚假的 Chromium 依赖,以及代码会探测本地 OpenClaw 配置文件寻找 API 密钥),安装前需审查。
安全有层次,运行前请审查代码。

运行时依赖

无特殊依赖

版本

latestv1.0.02026/4/19

1) Chromium 依赖:SKILL.md 和 README 声称需要 Chromium 浏览器,但代码并未使用浏览器自动化,该依赖多余,可能触发针对浏览器类技能的安全策略。请作者移除 anyBins 元数据或说明浏览器用途。

Pending

安装命令

点击复制
官方npx clawhub@latest install autoresearch-pipeline
🇨🇳 镜像加速npx clawhub@latest install autoresearch-pipeline --registry https://cn.longxiaskill.com

技能文档

# autoresearch — Nightly Research Pipeline 零成本夜间研究聚合器,循环 3 个主题轨道,从 4 个独立源拉取数据,合成结构化 markdown 报告,并向 stdout 输出 3 行 Telegram 预告。 ## 快速开始 ``bash # 空跑 —— 获取真实数据,打印预告,不写文件 cd ~/.openclaw/workspace uv run --with httpx python skills/autoresearch/scripts/run.py --dry-run # 完整运行 —— 写入 memory/ 并推进状态 uv run --with httpx python skills/autoresearch/scripts/run.py # 强制指定轨道 uv run --with httpx python skills/autoresearch/scripts/run.py --track crypto # 详细输出(调试日志到 stderr) uv run --with httpx python skills/autoresearch/scripts/run.py --dry-run --verbose ` ## 轨道 管道按顺序循环 3 个轨道(状态持久化在 state.json): | 轨道 | 显示名称 | 关注源 | |-------|-------------|---------------| | ai | AI & Agents | cs.AI/MA/CL/LG arXiv、Python/Rust/TS GitHub、LLM HN 关键词 | | crypto | Crypto & DeFi | cs.CR/DC arXiv、Solidity/Rust GitHub、crypto HN 关键词 | | devtools | Developer Tools | cs.SE/PL arXiv、Rust/Go/TS/Python GitHub、CLI/editor HN 关键词 | ## 来源 | 来源 | API | 认证 | 降级 | |--------|-----|------|----------| | arXiv | Atom API (export.arxiv.org) | 无 | 出错返回 [] | | GitHub Trending | 公开 HTML 抓取 | 无 | 结构变化返回 [] | | Hacker News | Firebase JSON API | 无 | 返回部分结果 | | Web Search | Brave Search API | BRAVE_API_KEY 环境变量 | 无密钥则静默跳过 | ## 输出文件 | 文件 | 说明 | |------|-------------| | memory/autoresearch-latest.md | 每次覆盖 —— 最新报告 | | memory/autoresearch-archive.md | 仅追加 —— 所有运行带日期标记 | | memory/autoresearch-errors.log | cron 运行的 stderr | ## CLI 参数 | 参数 | 默认值 | 说明 | |------|---------|-------------| | --track ai\|crypto\|devtools | 轮换 | 本次运行强制指定轨道 | | --dry-run | 关 | 获取+合成,但跳过写文件和状态推进 | | --verbose | 关 | 向 stderr 打印 DEBUG 日志 | ## 退出码 | 码 | 含义 | |------|---------| | 0 | 成功 | | 1 | 所有源失败 或 磁盘写入失败 | | 2 | 配置/状态错误(config.json 缺失、--track 值无效) | ## 配置 编辑 config.json 自定义各轨道查询: `json { "tracks": { "ai": { "arxiv_categories": ["cs.AI", "cs.MA", "cs.CL", "cs.LG"], "arxiv_keywords": ["agent", "LLM", ...], "github_languages": ["python", "rust", "typescript"], "github_topics": ["ai-agent", "llm", ...], "hn_keywords": ["AI", "GPT", "Claude", ...], "web_queries": ["AI agent framework news 2026", ...] } } } ` ## Cron 集成 `bash # 加入 OpenClaw cron:悉尼凌晨 1 点(前一日 14:00 UTC) # cron 包装器捕获 stdout 并通过 Telegram 发送 0 14 * cd ~/.openclaw/workspace && uv run --with httpx python skills/autoresearch/scripts/run.py 2>>~/.openclaw/workspace/memory/autoresearch-errors.log ` 脚本向 stdout 打印 3 行预告: ` 🔬 Nightly Research: AI & Agents • 热门论文:Scaling Laws for Agent Reasoning… —— 我们研究推理… • 趋势:microsoft/autogen ⭐342 | HN: Show HN: I built… ` cron 代理捕获 stdout 并通过 message 工具发送到 Telegram。 ## 状态 状态持久化在 state.json`json { "current_track_index": 1, "last_run": "2026-03-15T14:02:31.123456+00:00", "last_tracks": ["ai"] } ` 仅在成功运行(退出码 0)时推进状态。若所有源失败,状态保持同一轨道,次日重试。 ## 依赖 - httpx —— 所有 HTTP(通过 uv run --with httpx) - xml.etree.ElementTree —— arXiv Atom XML 解析(标准库) - json, re, asyncio, argparse, pathlib —— 标准库 无需额外依赖,skill 目录无需 pyproject.toml。 ## 与书稿集成 其它 cron 或代理可直接读取最新报告: `bash cat ~/.openclaw/workspace/memory/autoresearch-latest.md ` 或在 Python 中: `python from pathlib import Path report = Path.home() / ".openclaw/workspace/memory/autoresearch-latest.md" content = report.read_text() ` ## 文件结构 ` skills/autoresearch/ ├── SKILL.md # 本文件 ├── PLAN.md # 架构与规范 ├── config.json # 轨道定义 + 源配置 ├── state.json # 运行时状态(自动管理) └── scripts/ ├── run.py # CLI 入口(主管道) ├── sources.py # 数据获取器(arXiv、GitHub、HN、web) ├── synthesise.py # 报告生成器(markdown 合成) └── state.py ``

数据来源:ClawHub ↗ · 中文优化:龙虾技能库