通义千问Qwen2.5-Max超大规模MoE模型号称优于DeepseekV3等竞品,暂未开源

0 89

据IT之家1月29日消息,新年之际,阿里云公布了其全新的通义千问Qwen2.5-Max超大规模MoE模型,大家可以通过 API 的方式进行访问,也可以登录 QwenChat 进行体验,例如直接与模型对话,或者使用artifacts、搜索等功能。

据介绍,通义千问Qwen2.5-Max使用超过20万亿token的预训练数据及精心设计的后训练方案进行训练。

通义千问Qwen2.5-Max超大规模MoE模型号称优于DeepseekV3等竞品,暂未开源插图

性能

阿里云直接对比了指令模型的性能表现(IT之家注:指令模型即我们平常使用的可以直接对话的模型)。对比对象包括DeepSeekV3、GPT-4o和Claude-3.5-Sonnet,结果如下:

通义千问Qwen2.5-Max超大规模MoE模型号称优于DeepseekV3等竞品,暂未开源插图1

在Arena-Hard、LiveBench、LiveCodeBench和GPQA-Diamond等基准测试中,Qwen2.5-Max的表现超越了DeepSeekV3,同时在MMLU-Pro等其他评估中也展现出了极具竞争力的成绩。

在基座模型的对比中,由于无法访问GPT-4o和Claude-3.5-Sonnet等闭源模型的基座模型,阿里云将Qwen2.5-Max与目前领先的开源MoE模型DeepSeekV3、最大的开源稠密模型Llama-3.1-405B,以及同样位列开源稠密模型前列的Qwen2.5-72B进行了对比。对比结果如下图所示:

通义千问Qwen2.5-Max超大规模MoE模型号称优于DeepseekV3等竞品,暂未开源插图2

我们的基座模型在大多数基准测试中都展现出了显著的优势。我们相信,随着后训练技术的不断进步,下一个版本的Qwen2.5-Max将会达到更高的水平。(来源 IT之家)

抢域名

也许您对下面的内容还感兴趣:

暂无相关推荐!

评论

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。
你必须 登录 才能发表评论.