openclaw-home-pc/workspace/knowledge/tech/ai-model-selection-guide.md
2026-03-21 15:31:06 +08:00

169 lines
3.5 KiB
Markdown

# AI 模型选择指南
> **创建日期**: 2026-03-18
> **适用场景**: 根据任务类型选择最合适的 AI 模型
> **来源**: 欢欢助理与欢哥的对话记录
> **模型提供商**: 通义千问 (阿里云 Bailian)
---
## 📊 模型总览
| 模型 | 上下文 | 输出 | 多模态 | 适用场景 |
|------|--------|------|--------|----------|
| qwen3.5-plus | 1M | 65K | ✅ | ⭐ 通用首选 |
| qwen3-coder-plus | 1M | 65K | ❌ | 💻 编程 + 长文档 |
| qwen3-coder-next | 256K | 65K | ❌ | 💻 编程 |
| kimi-k2.5 | 256K | 32K | ✅ | 🖼️ 图片理解 |
| MiniMax-M2.5 | 192K | 32K | ❌ | 🔄 备用 |
| glm-5 | 196K | 16K | ❌ | 一般任务 |
| glm-4.7 | 196K | 16K | ❌ | 一般任务 |
| qwen3-max | 256K | 65K | ❌ | 复杂推理 |
---
## 🎯 场景推荐
### 💬 日常对话 / 一般任务
**推荐**: `qwen3.5-plus` (当前默认)
**理由**:
- ✅ 1M 超长上下文
- ✅ 支持图片理解
- ✅ 响应速度快
- ✅ 综合能力强
---
### 💻 编程任务
#### 短代码片段 (<1000 行)
**推荐**: `qwen3-coder-next`
**理由**:
- 编程优化版本
- 256K 上下文足够
- 代码理解能力强
#### 大型项目 / 长代码 (>1000 行)
**推荐**: `qwen3-coder-plus`
**理由**:
- 1M 上下文
- 可读取整个项目
- 编程专用优化
---
### 🖼️ 图片理解任务
**推荐**: `qwen3.5-plus``kimi-k2.5`
**选择建议**:
- 简单图片 → `qwen3.5-plus` (更快)
- 复杂图表 → `kimi-k2.5` (Kimi 擅长)
---
### 📄 长文档分析
#### 10 万 tokens 以内
**推荐**: 任意模型均可
#### 10 万 -100 万 tokens
**推荐**: `qwen3.5-plus``qwen3-coder-plus`
**理由**:
- 仅这两个模型支持 1M 上下文
- 可根据任务类型选择 (通用/编程)
---
### 🔬 复杂推理 / 数学问题
**推荐**: `qwen3-max-2026-01-23`
**理由**:
- Max 版本推理能力最强
- 适合逻辑推理、数学计算
---
### 🔄 备用方案
**推荐**: `MiniMax-M2.5`
**使用场景**:
- 主模型 (`qwen3.5-plus`) 失败时自动切换
- 作为 fallback 保证服务可用性
---
## ⚙️ 切换模型方法
### 方法 1: 对话中指定
```
"用 qwen3-coder-plus 帮我分析这段代码"
"切换到 kimi-k2.5 处理这张图片"
```
### 方法 2: 配置修改
编辑 `~/.openclaw/openclaw.json`:
```json
{
"agents": {
"defaults": {
"model": {
"primary": "bailian/qwen3-coder-plus"
}
}
}
}
```
### 方法 3: 临时覆盖
```bash
openclaw agent --model bailian/kimi-k2.5 --message "xxx"
```
---
## 📈 性能对比
### 响应速度 (估算)
| 模型 | 速度 |
|------|------|
| qwen3.5-plus | ⚡⚡⚡ 快 |
| qwen3-coder-next | ⚡⚡⚡ 快 |
| glm-4.7 | ⚡⚡ 中 |
| qwen3-max | ⚡ 较慢 (推理深) |
### 准确度 (主观评估)
| 任务类型 | 最佳模型 |
|----------|----------|
| 通用对话 | qwen3.5-plus |
| 代码生成 | qwen3-coder-plus |
| 图片理解 | kimi-k2.5 |
| 逻辑推理 | qwen3-max |
| 长文档总结 | qwen3.5-plus |
---
## 💡 使用建议
1. **默认使用** `qwen3.5-plus` (综合最优)
2. **编程任务** 明确指定 `qwen3-coder-plus`
3. **图片任务** 可尝试 `kimi-k2.5`
4. **复杂推理** 使用 `qwen3-max`
5. **长上下文** 优先 1M 模型
---
## ⚠️ 注意事项
1. **成本**: 所有模型当前免费 (cost: 0)
2. **可用性**: 部分模型可能限流
3. **一致性**: 同一任务尽量用同一模型
4. **fallback**: 配置备用模型防止中断
---
*本文档由欢欢助理整理,模型更新时请同步。*