类型: text
MiMo-V2-Flash — 开源对话模型SiliconFlowFlash低成本MiMo开源
MiMo-V2-Flash是通过SiliconFlow(硅基流动)平台提供的开源AI模型,Xiaomi MiMo V2 Flash open-source MoE model with 309B total, 15B active,上下文窗口262K tokens,支持流式输出和API调用。
262.1K 309B (15B active)文本开源长文本性价比
Seed-2.0-Lite — 开源对话模型SiliconFlowLite低成本Seed开源
Seed-2.0-Lite是通过SiliconFlow(硅基流动)平台提供的开源AI模型,ByteDance Seed 2,上下文窗口262K tokens,支持流式输出和API调用。
262.1K文本开源长文本性价比
Qwen3-14B — 免费对话模型SiliconFlow免费Qwen3开源
Qwen3-14B是通过SiliconFlow(硅基流动)平台提供的开源AI模型,完全免费使用,Qwen3 14B dense model, free on SiliconFlow,上下文窗口131K tokens,支持流式输出和API调用。
131.1K 14B文本开源免费长文本
Step-3.5-Flash — 开源对话模型SiliconFlowFlash低成本Step开源
Step-3.5-Flash是通过SiliconFlow(硅基流动)平台提供的开源AI模型,StepFun Step 3,上下文窗口262K tokens,支持流式输出和API调用。
262.1K 196B (11B active)文本开源长文本性价比
DeepSeek-V3.2 — 开源对话模型SiliconFlow低成本DeepSeek-V3.2开源
DeepSeek-V3.2是通过SiliconFlow(硅基流动)平台提供的开源AI模型,DeepSeek V3,上下文窗口164K tokens,支持流式输出和API调用。
163.8K文本开源长文本性价比
Qwen3-235B-A22B-Thinking-2507 — 开源对话模型SiliconFlowThinking低成本Qwen3 思考开源
Qwen3-235B-A22B-Thinking-2507是通过SiliconFlow(硅基流动)平台提供的开源AI模型,Qwen3 235B reasoning model optimized for complex multi-step thinking,上下文窗口131K tokens,支持流
131.1K 235B (22B active)文本开源长文本深度思考
GLM-4.7-Flash — 免费对话模型SiliconFlowFlash免费GLM-4开源
GLM-4.7-Flash是通过SiliconFlow(硅基流动)平台提供的开源AI模型,完全免费使用,GLM-4,上下文窗口203K tokens,支持流式输出和API调用。
202.8K文本开源免费长文本
GLM-4.7 — 开源对话模型SiliconFlow低成本GLM-4开源
GLM-4.7是通过SiliconFlow(硅基流动)平台提供的开源AI模型,GLM-4,上下文窗口203K tokens,支持流式输出和API调用。
202.8K文本开源长文本对话
GLM-5.1 — 开源对话模型SiliconFlow低成本GLM-5开源
GLM-5.1是通过SiliconFlow(硅基流动)平台提供的开源AI模型,GLM-5,上下文窗口205K tokens,支持流式输出和API调用。
205K文本开源长文本性价比
Qwen3-32B — 开源对话模型SiliconFlow低成本Qwen3开源
Qwen3-32B是通过SiliconFlow(硅基流动)平台提供的开源AI模型,Qwen3 32B dense model with strong multilingual capabilities,上下文窗口131K tokens,支持流式输出和API调用。
131.1K 32B文本开源长文本性价比
Qwen3-8B — 免费对话模型SiliconFlow免费Qwen3开源
Qwen3-8B是通过SiliconFlow(硅基流动)平台提供的开源AI模型,完全免费使用,Qwen3 8B compact model, free on SiliconFlow,上下文窗口131K tokens,支持流式输出和API调用。
131.1K 8B文本开源免费长文本
GLM-5-0805 — 开源对话模型SiliconFlow低成本GLM-5开源
GLM-5-0805是通过SiliconFlow(硅基流动)平台提供的开源AI模型,上下文窗口80K tokens,支持流式输出和API调用。
80K文本开源对话
DeepSeek-V3.1 — 开源对话模型SiliconFlow低成本DeepSeek-V3.1开源
DeepSeek-V3.1是通过SiliconFlow(硅基流动)平台提供的开源AI模型,DeepSeek V3,上下文窗口164K tokens,支持流式输出和API调用。
163.8K文本开源长文本对话
DeepSeek-R1 — 开源对话模型SiliconFlow低成本DeepSeek 思考开源
DeepSeek-R1是通过SiliconFlow(硅基流动)平台提供的开源AI模型,DeepSeek R1 reasoning model with chain-of-thought capabilities,上下文窗口164K tokens,支持流式输出和API调用。
163.8K文本开源长文本深度思考
MiniMax-M2.5 — 开源对话模型SiliconFlow低成本MiniMax开源
MiniMax-M2.5是通过SiliconFlow(硅基流动)平台提供的开源AI模型,MiniMax M2,上下文窗口197K tokens,支持流式输出和API调用。
196.6K文本开源长文本性价比
Qwen3-Coder-480B-A35B — 开源对话模型SiliconFlowCode低成本Qwen3开源
Qwen3-Coder-480B-A35B是通过SiliconFlow(硅基流动)平台提供的开源AI模型,Qwen3 Coder 480B A35B large code-focused MoE model,上下文窗口262K tokens,支持流式输出和API调用。
262.1K 480B (35B active)文本开源长文本对话
Llama 3.2 3B — 超高速推理模型Groq低成本Llama-3.2开源
Llama 3.2 3B是通过Groq LPU极速推理平台提供的开源AI模型,Llama 3,推理速度可达900 tokens/sec,上下文窗口131K tokens,支持流式输出和API调用。
131.1K 900~900 t/s文本开源高速推理长文本
Gemma 2 9B — 超高速推理模型Groq低成本Gemma开源
Gemma 2 9B是通过Groq LPU极速推理平台提供的开源AI模型,Google Gemma 2 9B open-source model for instruction following,推理速度可达500 tokens/sec,上下文窗口8K tokens,支持流式输出和API调用。
8.2K 500~500 t/s文本开源高速推理对话
Llama 3 8B — 超高速推理模型Groq低成本Llama-3开源
Llama 3 8B是通过Groq LPU极速推理平台提供的开源AI模型,Llama 3 8B compact model for fast inference,推理速度可达1250 tokens/sec,上下文窗口8K tokens,支持流式输出和API调用。
8.2K 1250~1250 t/s文本开源高速推理对话
Kimi K2 0905 — 极速推理模型Groq中等Kimi-K2开源
Kimi K2 0905是通过Groq LPU极速推理平台提供的开源AI模型,推理速度可达200 tokens/sec,上下文窗口262K tokens,支持流式输出和API调用。
262.1K 200~200 t/s文本开源高速推理长文本
OpenClaw 技能定制 / 插件定制 / 私有工作流定制
免费技能或插件可能存在安全风险,如需更匹配、更安全的方案,建议联系付费定制