跳转到主要内容

核心要点

  • 国产编程最强:Terminal-Bench 2.0 达 61.6 超越 Claude Opus 4.5(59.3),SWE-bench Verified 78.8,编程 Agent 能力全球顶尖
  • MoE 高效架构:72B 总参数 / 8 专家 / 激活 2 个,有效计算量仅约 18B 密集模型水平,推理速度约为 Claude Opus 4.6 的 3 倍
  • 百万级上下文:100 万 Token 上下文窗口,可一次性处理约 75 万字文本或完整大型代码仓库
  • 始终开启思维链:always-on chain-of-thought 推理 + 原生函数调用,天生适合 Agent 工作流
  • 多模态感知:原生多模态训练,支持基于截图、设计稿生成前端代码

背景介绍

2026 年 4 月 2 日,阿里通义千问团队正式发布 Qwen3.6 系列的首款模型 Qwen3.6-Plus,被誉为「中国编程能力最强的模型」。这是千问系列在 MoE(混合专家)架构上的重大升级,在保持极高推理效率的同时,编程和 Agent 能力直接对标 Claude Opus 4.5。 Qwen3.6-Plus 的发布标志着国产大模型在编程 Agent 领域迈入世界第一梯队。在 Terminal-Bench 2.0 等真实编程任务评测中,Qwen3.6-Plus 超越了 Claude Opus 4.5,并在 OpenRouter 上架后短时间内刷新了日调用量纪录。 API易现已上线 qwen3.6-plus,支持 OpenAI 兼容模式直接调用。

详细解析

核心特性

顶级编程 Agent

Terminal-Bench 61.6 超越 Claude Opus 4.5,SWE-bench 78.8,可自主拆解任务、规划路径、测试修改直至完成

MoE 高效架构

72B 总参数 / 8 专家模块 / 每次激活 2 个,有效计算约 18B,推理速度快且成本低

百万 Token 上下文

100 万 Token 窗口,可一次摄入完整大型代码仓库或约 75 万字文本,长文档处理无压力

原生多模态

基于原生多模态数据训练,可基于界面截图、设计稿完成前端页面生成、代码补全等任务

性能亮点

评测领域评测项目Qwen3.6-Plus对比
编程Terminal-Bench 2.061.6Claude Opus 4.5: 59.3
编程SWE-bench Verified78.8Claude Opus 4.5: 80.9
文档OmniDocBench v1.591.2全球第一
真实问答RealWorldQA85.4领先主流模型
Web AgentQwenWebBench Elo1502仅次于 Gemini 3 Pro
数据来源:阿里通义千问官方博客(qwen.ai/blog)、OpenRouter 评测数据。Qwen3.6-Plus 于 2026 年 4 月 2 日正式发布。
与竞品对比
  • vs Claude Opus 4.5:Terminal-Bench 超越(61.6 vs 59.3),SWE-bench 接近(78.8 vs 80.9)
  • vs Gemini 3 Pro:OmniDocBench 领先,QwenWebBench 接近
  • 推理速度:社区实测约为 Claude Opus 4.6 的 3 倍

技术规格

参数Qwen3.6-Plus
架构MoE(混合专家)
总参数72B
专家数量8 个(每次激活 2 个)
有效计算量~18B
上下文窗口1,000,000 tokens
最大输出65,536 tokens
思维链始终开启(always-on CoT)
函数调用原生支持
多模态文本 + 图片输入
模型名称qwen3.6-plus

实际应用

推荐场景

编程 Agent

自主代码修复、仓库级重构、复杂终端操作,适合 Claude Code / Cursor 等编程助手场景

长文档处理

百万 Token 上下文,一次性分析完整代码仓库或长篇文档,OmniDocBench 全球第一

前端开发

基于设计稿或截图自动生成前端页面,支持交互式修改和代码补全

多步骤 Agent

始终开启思维链 + 原生函数调用,适合复杂工作流编排和多步骤任务执行

代码示例

from openai import OpenAI

client = OpenAI(
    api_key="your-api-key",
    base_url="https://api.apiyi.com/v1"
)

response = client.chat.completions.create(
    model="qwen3.6-plus",
    messages=[
        {"role": "system", "content": "你是一个专业的编程助手。"},
        {"role": "user", "content": "请帮我写一个 Python 函数,实现 LRU 缓存,要求支持并发访问。"}
    ],
    max_tokens=8192
)

print(response.choices[0].message.content)
import OpenAI from "openai";

const client = new OpenAI({
  apiKey: "your-api-key",
  baseURL: "https://api.apiyi.com/v1",
});

const response = await client.chat.completions.create({
  model: "qwen3.6-plus",
  messages: [
    { role: "user", content: "Review this code for potential security issues and suggest fixes." }
  ],
  max_tokens: 8192,
});

console.log(response.choices[0].message.content);

最佳实践

Qwen3.6-Plus 始终启用思维链推理,输出可能包含推理过程。如果只需要最终答案,可在 system prompt 中指定「直接给出结果,不要推理过程」。
  • 编程场景:利用百万上下文窗口,将完整项目代码作为上下文传入,获得更精准的代码修改建议
  • Agent 场景:充分利用原生函数调用能力,定义清晰的工具描述,让模型自主规划执行路径
  • 长文档:对于超长文档,Qwen3.6-Plus 的 OmniDocBench 91.2 全球第一,非常适合文档理解和信息抽取

价格与可用性

定价信息

计费项价格
输入详见 API易 控制台
输出详见 API易 控制台

叠加网站充值活动

当前充值加赠活动持续进行中,充值越多加赠越多,详情请查看 充值优惠政策

总结与建议

Qwen3.6-Plus 是目前国产最强的编程 Agent 模型,Terminal-Bench 61.6 超越 Claude Opus 4.5,MoE 架构带来出色的推理速度和成本优势。百万 Token 上下文 + 始终开启思维链 + 原生函数调用的组合,使其成为编程助手、Agent 工作流和长文档处理的理想选择。 推荐人群
  • 需要高质量编程助手的开发者
  • 构建 Agent 工作流的技术团队
  • 需要处理超长文档或大型代码仓库的用户
  • 追求高性价比的国产模型替代方案
信息来源:阿里通义千问官方博客(qwen.ai/blog)、中新网、观察者网、IT之家。数据获取日期:2026 年 4 月 6 日。千问 3.6 系列后续还将发布更强的 Qwen3.6-Max 旗舰模型及其他尺寸的开源模型。