阿里对外称,该模型在中英文理解、复杂指令遵循、工具调用(RAG/Tool-calling)等维度有明显提升,并在设计上减少了知识幻觉现象;同时,Preview版本已在Qwen Chat与阿里云的模型平台上提供试用与API调用。 阿里官方表述把Qwen3-Max-Preview定位为Qwen3系列中“迄今为止最大且面向指令任务”的模型,并强调两件事:一是将“指令遵循与工具调用”作为主要优化目标;二是部署通道同时开放给自家产物(Qwen Chat)与商业开发者(阿里云模型服务/百炼平台)。 这个模型的亮点,集中在三个层面可被核验的事实:参数规模(超过1万亿)、可通过云平台与聊天产物调用、以及在若干公开或私有基准上取得的比较性优势。 阿里巴巴CEO吴泳铭(Eddie Wu)此前曾对外公开表示:“公司现在的主要目标,是构建一个最终能超越人类智能能力的——‘人工通用智能’(AGI:Artificial General Intelligence)系统。所有Qwen3模型均为开源,这体现了我们对开放社区与产业创新的长期承诺。” 通义团队过去在Qwen3技术报告中提出的框架(如思考/非思考模式、混合密集与MoE架构、可控的思考预算机制)为Max版的演进提供了方法论基础。 Qwen3的技术路线不是简单追参数,而是把“模式切换”“预算分配”“多模态兼容”作为可控变量,这使得放大到万亿参数时能更快面向实际任务做出灵活调整。 在Max-Preview的具体描述中,阿里把减少“知识幻觉”与增强“工具调用”并列为核心改进点:前者指向输出可信度与事实性(对公司级应用至关重要),后者则直接关系到把大模型嵌入公司流程、调用检索/数据库/执行工具时的可靠性。 Kimi与若干国产团队采取MoE路线以降低推理成本并提高单模型覆盖面;DeepSeek 则强调混合推理模式(thinking/non-thinking)与国内生态的快速迭代;Anthropic 则把 AI Agent 与长期推理能力作为差异点。 值得注意的是,参数的绝对值并不自动等同为产物优势:MoE类模型在“总参数”上能达到极大规模,但实际推理时的激活参数更小,成本结构不同——此次阿里没有披露这个超大模型的参数激活量数据。 此外,开放策略(开源、预览、闭源商用)会直接影响社区生态与二次创新速度。阿里在过去两年里已有Qwen3系列的开源实践与社区积累,这决定了Max面向用户与开发者的出发点,与完全闭源的竞品路径存在本质差别。 一个万亿级模型以Preview形式,在Qwen Chat与阿里云平台上线,意味着阿里将该模型当作“平台能力”来推:公司可通过API、RAG流程与工具链把模型嵌进已有的比如客服、知识库检索、公司内网搜索和自动化代理等业务系统。 这一路径的商业价值不在于单笔模型销售,而在于通过平台带来的长期黏性與增值服务,比如检索、定制化fine-tune、工具链托管和合规治理。 对于开发者与第三方厂商来说,Preview版既是试金石也是门槛:试金能验证Max在真实数据与业务流程中的表现;门槛则来自成本、接入复杂度与合规要求。 9月5日,华尔街见闻从国内一家服装巨头公司的CIO和HR总监处了解到,该公司已在阿里钉钉平台上,以钉钉自带的GenAI全套工具,快速重构该公司的服装从潮流趋势确定到设计、到生产、到陈列、到销售、到反馈、到售后等一系列业务流程。 这次推出的这个超大模型,也承袭了同样的思路或策略:将焦点从单纯的参数规模,转向“指令遵循、工具调用与降低幻觉”的工程化可用性;同时通过Qwen Chat与阿里云两条通道快速聚拢用户与付费场景。 若进一步检验Qwen3-Max的价值,需要时间与第三方评测来验证其在复杂公司场景(长期对话、工具链调用、知识闭环)中的稳定性与成本效益。 同时,监管和平台治理将决定这类超大模型能否在更大规模的公众与行业应用中长期存在。阿里这一步是加注,也是试探;真正的变量,在于生态能否被转化为可持续的商业与治理能力。


