首页AI模型目录

AI 模型

浏览主流大模型,了解能力与定价。

热门搜索 GPTClaudeDeepSeek通义千问文心一言Gemini

厂商: groq · 标签: 函数调用

Qwen3 32B — 超高速推理模型Groq低成本Qwen3开源
Qwen3 32B是通过Groq LPU极速推理平台提供的开源AI模型,Qwen3 32B dense model with strong multilingual and reasoning capabilities,推理速度可达662 tokens/sec,上下文窗口131K tokens,支持
131.1K 662~662 t/s文本对话低成本函数调用
Llama 3.3 70B Versatile — 极速推理模型Groq低成本Llama-3.3开源
Llama 3.3 70B Versatile是通过Groq LPU极速推理平台提供的开源AI模型,Llama 3,推理速度可达394 tokens/sec,上下文窗口131K tokens,支持流式输出和API调用。
131.1K 394~394 t/s文本对话低成本函数调用
Llama 3.1 8B Instant — 超高速推理模型Groq低成本Llama-3.1开源
Llama 3.1 8B Instant是通过Groq LPU极速推理平台提供的开源AI模型,Llama 3,推理速度可达840 tokens/sec,上下文窗口131K tokens,支持流式输出和API调用。
131.1K 840~840 t/s文本对话低成本函数调用
Llama 3.1 70B Versatile — 极速推理模型Groq低成本Llama-3.1开源
Llama 3.1 70B Versatile是通过Groq LPU极速推理平台提供的开源AI模型,Llama 3,推理速度可达250 tokens/sec,上下文窗口131K tokens,支持流式输出和API调用。
131.1K 250~250 t/s文本对话低成本函数调用
Llama 4 Scout — 超高速推理模型Groq低成本Llama-4开源
Llama 4 Scout是通过Groq LPU极速推理平台提供的开源AI模型,Meta Llama 4 Scout MoE model with 17B active parameters and 16 experts,推理速度可达594 tokens/sec,上下文窗口131K tokens,支
131.1K 594~594 t/s文本对话低成本函数调用
Llama 4 Maverick — 极速推理模型Groq低成本Llama-4开源
Llama 4 Maverick是通过Groq LPU极速推理平台提供的开源AI模型,推理速度可达240 tokens/sec,上下文窗口131K tokens,支持流式输出和API调用。
131.1K 240~240 t/s文本对话低成本函数调用
DeepSeek R1 Distill Llama 70B — 极速推理模型Groq低成本DeepSeek 思考开源
DeepSeek R1 Distill Llama 70B是通过Groq LPU极速推理平台提供的开源AI模型,Reasoning-focused model distilled from DeepSeek R1 into Llama 70B architecture,推理速度可达275 token
131.1K 275~275 t/s文本对话低成本推理
Mistral Saba 24B — 极速推理模型Groq低成本Mistral开源
Mistral Saba 24B是通过Groq LPU极速推理平台提供的开源AI模型,Mistral Saba 24B efficient model for the Middle East and South Asia,推理速度可达330 tokens/sec,上下文窗口33K tokens,支持
32.8K 330~330 t/s文本对话低成本函数调用
Llama 3.2 3B — 超高速推理模型Groq低成本Llama-3.2开源
Llama 3.2 3B是通过Groq LPU极速推理平台提供的开源AI模型,Llama 3,推理速度可达900 tokens/sec,上下文窗口131K tokens,支持流式输出和API调用。
131.1K 900~900 t/s文本对话低成本函数调用
GPT OSS 120B — Groq超快推理Groq低成本GPT-OSS开源
GPT OSS 120B是Groq LPU推理平台提供的模型,基于自研LPU芯片实现超高速推理,开源。
128K文本对话低成本函数调用
Llama 4 Scout — Groq极速Groq低成本Llama-4开源
Llama 4 Scout (Groq)是Groq LPU推理平台提供的模型,基于自研LPU芯片实现超高速推理,128K上下文,高速推理。
128K文本对话低成本函数调用
Qwen3 32B — Groq加速Groq低成本Qwen3开源
阿里Qwen3 32B模型运行在Groq LPU硬件上,超低延迟推理,131K上下文,适合需要快速响应的中文对话和文本处理。
131K文本对话低成本函数调用
OpenClaw 技能定制 / 插件定制 / 私有工作流定制

免费技能或插件可能存在安全风险,如需更匹配、更安全的方案,建议联系付费定制

了解定制服务