4月23日,腾讯正式发布了混元大模型系列最新成员——混元Hy3预览版,并同步在GitHub上开源相关模型权重。这是继DeepSeek R1之后,又一家中国科技巨头向开源社区贡献千亿参数级大模型,标志着国内AI竞争进入新阶段。
混元Hy3采用全新的混合专家架构(MoE),在多模态理解、数学推理、代码生成等关键任务上均有显著提升。—— 腾讯混元团队
核心技术亮点
- 混合专家架构(MoE):总参数量超过万亿,但每次推理仅激活数百亿参数,推理效率大幅提升
- 多模态融合:原生支持文本、图像、视频的统一理解,实现跨模态推理
- 超长上下文:支持128K tokens上下文窗口,可处理长篇小说级别的内容分析
- 开源许可宽松:采用Apache 2.0许可证,商业可用
性能表现
| 基准测试 | 混元Hy3 | GPT-4o |
|---|---|---|
| MMLU | 87.3% | 86.4% |
| MATH | 72.8% | 76.6% |
| HumanEval | 81.5% | 85.7% |
从基准测试来看,混元Hy3在MMLU上已超越GPT-4o,但数学和代码能力仍有差距。作为国产开源模型的里程碑之作,腾讯此举为中小企业和开发者提供了更多选择。
如何体验
目前可通过以下渠道获取混元Hy3:
- GitHub:搜索「Tencent Hunyuan」官方仓库
- HuggingFace:模型已同步上线
- 腾讯云API:提供限时免费调用额度
对于希望在本地部署的企业用户,腾讯提供了完整的量化版本,支持INT4/INT8压缩,最低可在单卡RTX 4090上运行。
混元Hy3的开源,不仅是腾讯技术实力的展现,更意味着中国AI开源生态正在快速追赶世界前沿。未来随着更多开发者参与优化,国产开源大模型有望在更多场景实现突破。

发表回复