打开APP
国产大模型再放大招!MiniMax发布全球首个开源混合架构
常总
2025-06-18 09:56:23
在竞争激烈的人工智能大模型领域,又一颗重磅炸弹被投下。6月17日,国内独角兽企业MiniMax正式发布其自主研发的首款开源大规模混合架构推理模型MiniMax-M1。这一消息如同一颗石子投入平静湖面,在AI界激起千层浪,为行业发展带来全新的想象空间。
 
MiniMax-M1被定义为“全球首个开源的大规模混合架构推理模型”,它的诞生意义非凡。从模型架构来看,它采用了混合门控专家架构(MoE)与Lightning Attention(闪电注意力)相结合的方式,这一创新架构成为其性能突破的关键。传统Transformer模型在处理长序列时,注意力机制的计算量会随序列长度呈平方级增长,极大限制了模型性能和成本控制。而MiniMax-M1的混合架构能显著优化长上下文输入的计算效率,解决了这一长期困扰行业的难题。
 
从性能数据上看,MiniMax-M1更是表现亮眼。它原生支持高达100万Token的上下文窗口,这一数字与谷歌最新的Gemini 2.5 Pro持平,是DeepSeek R1(12.8万Token)的近8倍 ,同时还支持业内最长的8万Token推理输出。这意味着它在处理长篇文档分析、复杂代码生成等对长文本处理能力要求极高的任务时,有着得天独厚的优势。比如在处理一部数百万字的学术著作时,MiniMax-M1能一次性理解和分析全部内容,而其他模型可能需要分段处理,不仅效率低,还可能在衔接处出现理解偏差。
 
在成本方面,MiniMax-M1也有着令人瞩目的表现。整个强化学习阶段只用到512块H800 GPU,耗时三周,租赁成本为53.74万美元,成本相比同类模型下降了一个量级。这对于众多渴望应用大模型技术,但又受限于高昂成本的企业和开发者来说,无疑是一个福音。低成本使得更多的团队能够使用MiniMax-M1进行开发和创新,有助于推动AI技术在更广泛领域的应用。
 
MiniMax不仅开源了模型权重,还提供了API服务,价格极具性价比。采用阶梯式定价,随着输入文本长度增加而提高。在0 - 3.2万(含)Token范围,输入时0.8元/百万Token,输出时8元/百万Token;在3.2万 - 12.8万(含)Token范围,输入时1.2元/百万Token,输出时16元/百万Token;在12.8万 - 100万Token范围,输入时2.4元/百万Token,输出时在24元/百万Token 。前两个档位的定价均低于DeepSeek-R1,而第三个超长文本档位则是DeepSeek模型目前尚未覆盖的领域 。此外,在MiniMax自有App和Web端,M1模型将保持不限量免费使用,进一步降低了用户和开发者的使用门槛。
 
在当下大模型竞争激烈的市场环境中,MiniMax-M1的发布为行业注入了新的活力。它凭借创新的架构、卓越的性能、低廉的成本和亲民的价格,有望在大模型市场中占据一席之地,推动大模型技术朝着更高效、更实用、更普惠的方向发展,为人工智能的进一步普及和应用奠定坚实基础 。
免责声明:本文由顶端号作者上传发布,仅代表作者观点,顶端新闻仅提供信息发布平台。如文章内容涉及侵权或其他问题,请30日内与本平台联系,反映情况属实我们将第一时间删除。
热评
暂无评论,去APP抢占沙发吧