👉 项目官网:https://www.python-office.com/ 👈
👉 本开源项目的交流群 👈
4月23日,腾讯混元 Hy3 Preview 正式发布并开源。
这不是一次常规的版本迭代。
官方给它的定义是:**"混元重建后训练的第一个模型",也是"混元迄今最智能的模型"**。
这次发布,背后有个故事
去年年底,腾讯请来了一个人——姚顺雨,担任腾讯首席AI科学家,负责AI基础设施和大语言模型。
他做的第一件事,不是在原有基础上优化,而是推倒重来。
预训练框架、强化学习框架、底层基础设施,全部重建。
今年1月底开始训练,4月23日发布。
三个月,从零到一。
Hy3 Preview,就是这三个月交出的第一份答卷。
核心参数,一眼看懂
| 项目 | 规格 |
|---|---|
| 模型名称 | 混元 Hy3 Preview |
| 发布时间 | 2026年4月23日 |
| 架构 | 快慢思考融合的混合专家(MoE) |
| 总参数 | 295B(2950亿) |
| 激活参数 | 21B(210亿) |
| 最大上下文 | 256K |
| 开源协议 | 开源 |
| 开源平台 | GitHub、HuggingFace、ModelScope、GitCode |
有一个细节值得注意:
总参数295B,但激活参数只有21B,**激活占比约7%**。
这意味着每次推理时,模型只激活全部参数的7%左右,实际计算量远小于一个295B的稠密模型。
这就是MoE架构的核心价值——用更少的激活参数,覆盖更大的知识空间。
快思考 + 慢思考,什么意思?
Hy3 Preview 的架构叫"快慢思考融合",对应的是人类认知的两种模式:
快思考(System 1)
- 快速、自动、不需要太多计算资源
- 适合:简单问答、事实查询、日常对话
- 特点:响应速度快
慢思考(System 2)
- 缓慢、深度、需要更多计算资源
- 适合:复杂推理、代码生成、多步任务
- 特点:质量更高
两种模式融合在一个模型里,简单问题快速回,复杂问题深度想。
能力提升,哪里最明显?
根据官方数据,Hy3 Preview 在以下方向提升最为显著:
🧠 复杂推理
在 FrontierScience Olympiad、IMO Answer Bench、清华求真书院数学博资考等权威评测中取得优异成绩。
💻 代码与智能体
在 SWE-Bench Verified、Terminal-Bench 2.0、BrowseComp、WideSearch 等基准测试中跻身行业第一梯队。
可以稳定支撑复杂多步工作流与工具编排,这对 AI Agent 场景非常重要。
📖 长上下文
256K 上下文,意味着可以一次性处理约 20 万字的文档,不需要分段。
🗣️ 指令遵循与对话体验
通过用户反馈建模与 RLHF 优化,事实性错误减少,意图理解更精准。
价格怎么样?
在腾讯云大模型服务平台 TokenHub 上:
| 计费项 | 价格 |
|---|---|
| 输入(标准) | 1.2元 / 百万 tokens |
| 输入(命中缓存) | 0.4元 / 百万 tokens |
| 输出 | 4元 / 百万 tokens |
对比同级别的开源模型,性价比相当不错。
已经接入了哪些产品?
Hy3 Preview 发布当天,已接入腾讯数十款产品,包括:
- 元宝(腾讯AI助手)
- WorkBuddy(腾讯工作助手)
后续会继续扩展到更多腾讯系产品。
怎么用?
方式一:直接体验
👉 腾讯元宝 — 直接对话,免费体验
方式二:API 调用
👉 腾讯云 TokenHub — 开发者接入,按量计费
方式三:开源部署
模型权重已在以下平台开源,支持 vLLM、SGLang 等推理框架:
- GitHub
- HuggingFace
- ModelScope
- GitCode
最后说两句
这次混元 Hy3 Preview 的发布,有几点让我印象比较深:
第一,敢于推倒重来。
在大家都在卷参数、卷榜单的时候,腾讯选择了把底层全部重建。这需要勇气,也需要时间。
第二,三个月的速度。
从1月底开始训练,到4月23日发布,三个月完成了从基础设施重建到模型上线的全流程。这个速度,说明团队执行力很强。
第三,开源策略。
选择开源,说明腾讯希望通过社区反馈来打磨正式版。这是一个务实的选择——先把模型放出去,听真实用户的声音,再迭代。
Hy3 Preview 是"重建后的第一步",正式版还在路上。
值得持续关注。
有问题?👉 加我微信:aiwf365,备注:混元
或者👉 加入AI编程学习交流群
相关阅读
