2026年4月23日,腾讯混元正式推出并开源了Hy3 preview语言模型。这一模型是混元团队在重建预训练与强化学习基础设施后取得的首次成果,采用了“快慢思考融合”的混合专家(MoE)架构,拥有295B的总参数(其中激活参数为21B),以及256K的超长上下文窗口,在复杂推理、代码智能体和指令遵循等核心能力上取得了显著提升。腾讯将其定义为“混元迄今最智能的模型”。此次开源不仅代表了技术上的重大突破,更标志着腾讯AI战略从“技术探索”转向“实用落地”,并通过性价比和真实场景的适应性,重新定义大模型行业的竞争逻辑。
架构革新:295B参数的“实用主义”选择
Hy3 preview的架构设计不再盲目追求行业内“万亿参数”的标准,而是转而寻求能力与效率之间的最佳平衡。采用的MoE架构通过“按需激活”机制,仅调用必要的专家网络来完成推理任务。这样不仅保障了处理复杂任务的能力,还显著降低了推理成本。295B的总参数规模,使得该模型既能充分发挥复杂推理和长上下文理解等核心能力,又有效避免了万亿参数模型常遇到的跨节点通信延迟、运维复杂度高、推理成本翻倍等工程难题。腾讯首席AI科学家姚顺雨表示:“300B量级是能力与性价比的黄金分割点,继续扩大规模的边际收益已显著递减。”

能力跃升:从“偏科”到“体系化实用”
与过往模型不同,Hy3 preview的训练遵循“能力体系化”原则,拒绝“偏科式”发展。在复杂推理领域,模型在清华大学求真书院数学博士资格考试(2026春)中取得国内最高分,在IMOAnswerBench等高难度理工科推理任务中表现突出;在代码与智能体能力上,得益于预训练及强化学习框架的重建,模型在SWE-Bench Verified、Terminal-Bench 2.0等主流基准测试中竞争力显著,已能稳定驱动最长495步的复杂Agent工作流,覆盖文档处理、数据分析等办公场景;在上下文学习与指令遵循方面,基于腾讯业务场景自建的CL-bench评测体系显示,模型对杂乱冗长上下文的理解能力与复杂规则的执行能力大幅提升。
场景落地:从实验室到腾讯全系产品
Hy3 preview的实用性已在腾讯核心业务中得到验证。在元宝App中,模型通过深度Co-Design(协同设计),在意图理解精准度、文本创作质量上实现精细化调优,交互体验更具“活人感”;在CodeBuddy、WorkBuddy等产品中,首token延迟降低54%,端到端时长降低47%,成功率提升至99.99%+;在和平精英AI NPC场景中,模型不仅能精准理解角色设定,还能在游戏局内复杂对战中输出贴近真实玩家的回复,稳定性与拟人化表现突出。目前,模型已在元宝、QQ、腾讯文档等10余款产品上线,并支持OpenClaw、OpenCode等开源智能体产品接入。
