169 lines
3.5 KiB
Markdown
169 lines
3.5 KiB
Markdown
# AI 模型选择指南
|
|
|
|
> **创建日期**: 2026-03-18
|
|
> **适用场景**: 根据任务类型选择最合适的 AI 模型
|
|
> **来源**: 欢欢助理与欢哥的对话记录
|
|
> **模型提供商**: 通义千问 (阿里云 Bailian)
|
|
|
|
---
|
|
|
|
## 📊 模型总览
|
|
|
|
| 模型 | 上下文 | 输出 | 多模态 | 适用场景 |
|
|
|------|--------|------|--------|----------|
|
|
| qwen3.5-plus | 1M | 65K | ✅ | ⭐ 通用首选 |
|
|
| qwen3-coder-plus | 1M | 65K | ❌ | 💻 编程 + 长文档 |
|
|
| qwen3-coder-next | 256K | 65K | ❌ | 💻 编程 |
|
|
| kimi-k2.5 | 256K | 32K | ✅ | 🖼️ 图片理解 |
|
|
| MiniMax-M2.5 | 192K | 32K | ❌ | 🔄 备用 |
|
|
| glm-5 | 196K | 16K | ❌ | 一般任务 |
|
|
| glm-4.7 | 196K | 16K | ❌ | 一般任务 |
|
|
| qwen3-max | 256K | 65K | ❌ | 复杂推理 |
|
|
|
|
---
|
|
|
|
## 🎯 场景推荐
|
|
|
|
### 💬 日常对话 / 一般任务
|
|
**推荐**: `qwen3.5-plus` (当前默认)
|
|
|
|
**理由**:
|
|
- ✅ 1M 超长上下文
|
|
- ✅ 支持图片理解
|
|
- ✅ 响应速度快
|
|
- ✅ 综合能力强
|
|
|
|
---
|
|
|
|
### 💻 编程任务
|
|
|
|
#### 短代码片段 (<1000 行)
|
|
**推荐**: `qwen3-coder-next`
|
|
|
|
**理由**:
|
|
- 编程优化版本
|
|
- 256K 上下文足够
|
|
- 代码理解能力强
|
|
|
|
#### 大型项目 / 长代码 (>1000 行)
|
|
**推荐**: `qwen3-coder-plus`
|
|
|
|
**理由**:
|
|
- 1M 上下文
|
|
- 可读取整个项目
|
|
- 编程专用优化
|
|
|
|
---
|
|
|
|
### 🖼️ 图片理解任务
|
|
**推荐**: `qwen3.5-plus` 或 `kimi-k2.5`
|
|
|
|
**选择建议**:
|
|
- 简单图片 → `qwen3.5-plus` (更快)
|
|
- 复杂图表 → `kimi-k2.5` (Kimi 擅长)
|
|
|
|
---
|
|
|
|
### 📄 长文档分析
|
|
|
|
#### 10 万 tokens 以内
|
|
**推荐**: 任意模型均可
|
|
|
|
#### 10 万 -100 万 tokens
|
|
**推荐**: `qwen3.5-plus` 或 `qwen3-coder-plus`
|
|
|
|
**理由**:
|
|
- 仅这两个模型支持 1M 上下文
|
|
- 可根据任务类型选择 (通用/编程)
|
|
|
|
---
|
|
|
|
### 🔬 复杂推理 / 数学问题
|
|
**推荐**: `qwen3-max-2026-01-23`
|
|
|
|
**理由**:
|
|
- Max 版本推理能力最强
|
|
- 适合逻辑推理、数学计算
|
|
|
|
---
|
|
|
|
### 🔄 备用方案
|
|
**推荐**: `MiniMax-M2.5`
|
|
|
|
**使用场景**:
|
|
- 主模型 (`qwen3.5-plus`) 失败时自动切换
|
|
- 作为 fallback 保证服务可用性
|
|
|
|
---
|
|
|
|
## ⚙️ 切换模型方法
|
|
|
|
### 方法 1: 对话中指定
|
|
```
|
|
"用 qwen3-coder-plus 帮我分析这段代码"
|
|
"切换到 kimi-k2.5 处理这张图片"
|
|
```
|
|
|
|
### 方法 2: 配置修改
|
|
编辑 `~/.openclaw/openclaw.json`:
|
|
```json
|
|
{
|
|
"agents": {
|
|
"defaults": {
|
|
"model": {
|
|
"primary": "bailian/qwen3-coder-plus"
|
|
}
|
|
}
|
|
}
|
|
}
|
|
```
|
|
|
|
### 方法 3: 临时覆盖
|
|
```bash
|
|
openclaw agent --model bailian/kimi-k2.5 --message "xxx"
|
|
```
|
|
|
|
---
|
|
|
|
## 📈 性能对比
|
|
|
|
### 响应速度 (估算)
|
|
| 模型 | 速度 |
|
|
|------|------|
|
|
| qwen3.5-plus | ⚡⚡⚡ 快 |
|
|
| qwen3-coder-next | ⚡⚡⚡ 快 |
|
|
| glm-4.7 | ⚡⚡ 中 |
|
|
| qwen3-max | ⚡ 较慢 (推理深) |
|
|
|
|
### 准确度 (主观评估)
|
|
| 任务类型 | 最佳模型 |
|
|
|----------|----------|
|
|
| 通用对话 | qwen3.5-plus |
|
|
| 代码生成 | qwen3-coder-plus |
|
|
| 图片理解 | kimi-k2.5 |
|
|
| 逻辑推理 | qwen3-max |
|
|
| 长文档总结 | qwen3.5-plus |
|
|
|
|
---
|
|
|
|
## 💡 使用建议
|
|
|
|
1. **默认使用** `qwen3.5-plus` (综合最优)
|
|
2. **编程任务** 明确指定 `qwen3-coder-plus`
|
|
3. **图片任务** 可尝试 `kimi-k2.5`
|
|
4. **复杂推理** 使用 `qwen3-max`
|
|
5. **长上下文** 优先 1M 模型
|
|
|
|
---
|
|
|
|
## ⚠️ 注意事项
|
|
|
|
1. **成本**: 所有模型当前免费 (cost: 0)
|
|
2. **可用性**: 部分模型可能限流
|
|
3. **一致性**: 同一任务尽量用同一模型
|
|
4. **fallback**: 配置备用模型防止中断
|
|
|
|
---
|
|
|
|
*本文档由欢欢助理整理,模型更新时请同步。*
|