openclaw-home-pc/workspace/knowledge/tech/ai-model-selection-guide.md
2026-03-21 15:31:06 +08:00

3.5 KiB

AI 模型选择指南

创建日期: 2026-03-18
适用场景: 根据任务类型选择最合适的 AI 模型
来源: 欢欢助理与欢哥的对话记录
模型提供商: 通义千问 (阿里云 Bailian)


📊 模型总览

模型 上下文 输出 多模态 适用场景
qwen3.5-plus 1M 65K 通用首选
qwen3-coder-plus 1M 65K 💻 编程 + 长文档
qwen3-coder-next 256K 65K 💻 编程
kimi-k2.5 256K 32K 🖼️ 图片理解
MiniMax-M2.5 192K 32K 🔄 备用
glm-5 196K 16K 一般任务
glm-4.7 196K 16K 一般任务
qwen3-max 256K 65K 复杂推理

🎯 场景推荐

💬 日常对话 / 一般任务

推荐: qwen3.5-plus (当前默认)

理由:

  • 1M 超长上下文
  • 支持图片理解
  • 响应速度快
  • 综合能力强

💻 编程任务

短代码片段 (<1000 行)

推荐: qwen3-coder-next

理由:

  • 编程优化版本
  • 256K 上下文足够
  • 代码理解能力强

大型项目 / 长代码 (>1000 行)

推荐: qwen3-coder-plus

理由:

  • 1M 上下文
  • 可读取整个项目
  • 编程专用优化

🖼️ 图片理解任务

推荐: qwen3.5-pluskimi-k2.5

选择建议:

  • 简单图片 → qwen3.5-plus (更快)
  • 复杂图表 → kimi-k2.5 (Kimi 擅长)

📄 长文档分析

10 万 tokens 以内

推荐: 任意模型均可

10 万 -100 万 tokens

推荐: qwen3.5-plusqwen3-coder-plus

理由:

  • 仅这两个模型支持 1M 上下文
  • 可根据任务类型选择 (通用/编程)

🔬 复杂推理 / 数学问题

推荐: qwen3-max-2026-01-23

理由:

  • Max 版本推理能力最强
  • 适合逻辑推理、数学计算

🔄 备用方案

推荐: MiniMax-M2.5

使用场景:

  • 主模型 (qwen3.5-plus) 失败时自动切换
  • 作为 fallback 保证服务可用性

⚙️ 切换模型方法

方法 1: 对话中指定

"用 qwen3-coder-plus 帮我分析这段代码"
"切换到 kimi-k2.5 处理这张图片"

方法 2: 配置修改

编辑 ~/.openclaw/openclaw.json:

{
  "agents": {
    "defaults": {
      "model": {
        "primary": "bailian/qwen3-coder-plus"
      }
    }
  }
}

方法 3: 临时覆盖

openclaw agent --model bailian/kimi-k2.5 --message "xxx"

📈 性能对比

响应速度 (估算)

模型 速度
qwen3.5-plus
qwen3-coder-next
glm-4.7
qwen3-max 较慢 (推理深)

准确度 (主观评估)

任务类型 最佳模型
通用对话 qwen3.5-plus
代码生成 qwen3-coder-plus
图片理解 kimi-k2.5
逻辑推理 qwen3-max
长文档总结 qwen3.5-plus

💡 使用建议

  1. 默认使用 qwen3.5-plus (综合最优)
  2. 编程任务 明确指定 qwen3-coder-plus
  3. 图片任务 可尝试 kimi-k2.5
  4. 复杂推理 使用 qwen3-max
  5. 长上下文 优先 1M 模型

⚠️ 注意事项

  1. 成本: 所有模型当前免费 (cost: 0)
  2. 可用性: 部分模型可能限流
  3. 一致性: 同一任务尽量用同一模型
  4. fallback: 配置备用模型防止中断

本文档由欢欢助理整理,模型更新时请同步。