首页龙虾技能列表 › Ml Model Eval Benchmark — 机器学习模型评估基准对比

Ml Model Eval Benchmark — 机器学习模型评估基准对比

v?

使用加权指标和确定性排名输出比较模型候选。适用于基准测试排行榜和模型推广决策。

0· 367·0 当前·0 累计

运行时依赖

无特殊依赖

安装命令 点击复制

官方clawhub install ml-model-eval-benchmark
镜像加速clawhub install ml-model-eval-benchmark --registry https://cn.clawhub-mirror.com

技能文档

简介

该技能用于比较机器学习模型候选,通过加权指标和确定性排名输出,辅助模型选择和推广决策。

用法

  • 准备模型候选和评估指标
  • 配置加权指标
  • 运行技能,获得模型比较结果和排名

# 原始 YAML frontmatter 和代码块保持不变(假设存在,实际未提供)

command_example # 示例命令,实际命令根据技能定义而定

数据来源:ClawHub ↗ · 中文优化:龙虾技能库
OpenClaw 技能定制 / 插件定制 / 私有工作流定制

免费技能或插件可能存在安全风险,如需更匹配、更安全的方案,建议联系付费定制

了解定制服务