3.5 KiB
3.5 KiB
AI 模型选择指南
创建日期: 2026-03-18
适用场景: 根据任务类型选择最合适的 AI 模型
来源: 欢欢助理与欢哥的对话记录
模型提供商: 通义千问 (阿里云 Bailian)
📊 模型总览
| 模型 | 上下文 | 输出 | 多模态 | 适用场景 |
|---|---|---|---|---|
| qwen3.5-plus | 1M | 65K | ✅ | ⭐ 通用首选 |
| qwen3-coder-plus | 1M | 65K | ❌ | 💻 编程 + 长文档 |
| qwen3-coder-next | 256K | 65K | ❌ | 💻 编程 |
| kimi-k2.5 | 256K | 32K | ✅ | 🖼️ 图片理解 |
| MiniMax-M2.5 | 192K | 32K | ❌ | 🔄 备用 |
| glm-5 | 196K | 16K | ❌ | 一般任务 |
| glm-4.7 | 196K | 16K | ❌ | 一般任务 |
| qwen3-max | 256K | 65K | ❌ | 复杂推理 |
🎯 场景推荐
💬 日常对话 / 一般任务
推荐: qwen3.5-plus (当前默认)
理由:
- ✅ 1M 超长上下文
- ✅ 支持图片理解
- ✅ 响应速度快
- ✅ 综合能力强
💻 编程任务
短代码片段 (<1000 行)
推荐: qwen3-coder-next
理由:
- 编程优化版本
- 256K 上下文足够
- 代码理解能力强
大型项目 / 长代码 (>1000 行)
推荐: qwen3-coder-plus
理由:
- 1M 上下文
- 可读取整个项目
- 编程专用优化
🖼️ 图片理解任务
推荐: qwen3.5-plus 或 kimi-k2.5
选择建议:
- 简单图片 →
qwen3.5-plus(更快) - 复杂图表 →
kimi-k2.5(Kimi 擅长)
📄 长文档分析
10 万 tokens 以内
推荐: 任意模型均可
10 万 -100 万 tokens
推荐: qwen3.5-plus 或 qwen3-coder-plus
理由:
- 仅这两个模型支持 1M 上下文
- 可根据任务类型选择 (通用/编程)
🔬 复杂推理 / 数学问题
推荐: qwen3-max-2026-01-23
理由:
- Max 版本推理能力最强
- 适合逻辑推理、数学计算
🔄 备用方案
推荐: MiniMax-M2.5
使用场景:
- 主模型 (
qwen3.5-plus) 失败时自动切换 - 作为 fallback 保证服务可用性
⚙️ 切换模型方法
方法 1: 对话中指定
"用 qwen3-coder-plus 帮我分析这段代码"
"切换到 kimi-k2.5 处理这张图片"
方法 2: 配置修改
编辑 ~/.openclaw/openclaw.json:
{
"agents": {
"defaults": {
"model": {
"primary": "bailian/qwen3-coder-plus"
}
}
}
}
方法 3: 临时覆盖
openclaw agent --model bailian/kimi-k2.5 --message "xxx"
📈 性能对比
响应速度 (估算)
| 模型 | 速度 |
|---|---|
| qwen3.5-plus | ⚡⚡⚡ 快 |
| qwen3-coder-next | ⚡⚡⚡ 快 |
| glm-4.7 | ⚡⚡ 中 |
| qwen3-max | ⚡ 较慢 (推理深) |
准确度 (主观评估)
| 任务类型 | 最佳模型 |
|---|---|
| 通用对话 | qwen3.5-plus |
| 代码生成 | qwen3-coder-plus |
| 图片理解 | kimi-k2.5 |
| 逻辑推理 | qwen3-max |
| 长文档总结 | qwen3.5-plus |
💡 使用建议
- 默认使用
qwen3.5-plus(综合最优) - 编程任务 明确指定
qwen3-coder-plus - 图片任务 可尝试
kimi-k2.5 - 复杂推理 使用
qwen3-max - 长上下文 优先 1M 模型
⚠️ 注意事项
- 成本: 所有模型当前免费 (cost: 0)
- 可用性: 部分模型可能限流
- 一致性: 同一任务尽量用同一模型
- fallback: 配置备用模型防止中断
本文档由欢欢助理整理,模型更新时请同步。