请输入关键字词

最新搜索
123456
热门搜索
123456
正文首页>综合>

最强性价比1支撑最Max开源推理模型M高百万上下文输入

综合2025-07-04 10:08:35检溃57836
MiniMax发布新款开源大模型,称其性价比优于DeepSeek。6月17日,国内大模型独角兽MiniMax发布世界上榜首个开源的大规模混合架构的推理模型MiniMax-M1,这也是“MiniMaxW ...

  MiniMax发布新款开源大模型 ,最强M支称其性价比优于DeepSeek。性价下文

  6月17日 ,开源国内大模型独角兽MiniMax发布世界上榜首个开源的推理大规模混合架构的推理模型MiniMax-M1,这也是模型“MiniMaxWeek”系列发布活动的首个对外发布。

  据MiniMax介绍,撑最M1在面向生产力的高百杂乱场景中才能是开源模型中的最好一档,逾越国内的输入闭源模型,挨近海外的最强M支最抢先模型  ,一起又有业界最高的性价下文性价比。

  MiniMax发表 ,开源M1的推理优势是支撑现在业界最高的100万上下文的输入 ,和闭源模型里边的模型GoogleGemini2.5Pro相同,是撑最DeepSeekR1的8倍,以及业界最长的高百8万Token推理输出 。

  此次MiniMaxM1的最大优势之一体现在本钱上。依据M1大模型剖析本身的技术优势显现 ,MiniMaxM1选用低本钱练习 ,仅用512块H800GPU三周时刻,本钱53.47万美元(约385万元)。

  MiniMax称 ,得益于以闪电注意力机制为主的混合架构,从而在核算长的上下文输入以及深度推理的时分显着高效。依据归纳,在生成长度为10万tokens的场景下,MiniMax-M1的核算量(FLOPs)为DeepSeekR1的25%,在长文本处理使命中具有显着优势。

  据M1的剖析表明,MiniMaxM1的中心优势在于超长上下文处理才能和极低的算力耗费 ,一起在杂乱使命(如东西调用、长文本了解)中体现挨近乃至逾越DeepSeekR1,供给更灵敏的API定价战略 ,特别合适需求处理百万级token的场景(如法令文档剖析 、代码库了解)。DeepSeekR1则在传统数学推理和编程基准测验中略占优势 ,但受限于上下文长度和核算功率,在长文本使命中显着落后M1 。

  价格方面 ,M1在MiniMaxAPP和Web上支撑不定量免费运用 。在API方面,榜首档0-32k的输入长度时  ,输入0.8元/百万token ,输出8元/百万token;第二档32k-128k的输入长度时  ,输入1.2元/百万token ,输出16元/百万token;第三档128k-1M输入长度时 ,输入2.4元/百万token ,输出24元/百万token 。

  值得注意的是,DeepSeek已成为大模型厂商对标的“风向标” 。此前字节跳动旗下火山引擎最新发布豆包大模型1.6 ,创始按“输入长度”区间定价,深度考虑、多模态才能与根底言语模型一致价格 ,称其归纳本钱只要DeepSeekR1三分之一,每生成一条5秒的1080P视频只需3.67元 ,为职业最低。

  不过,被视为团体竞争对手的DeepSeekR1也在继续晋级中。5月29日 ,据DeepSeek公告,DeepSeekR1模型已完结小版别晋级 ,当时版别为DeepSeek-R1-0528 。用户经过官方网站、APP或小程序进入对话界面后,敞开“深度考虑”功用即可体会最新版别 。API也已同步更新,调用方法不变。

  新版DeepSeekR1针对“错觉”问题进行了优化。与旧版比较,更新后的模型在改写润饰 、总结摘要、阅览了解等场景中,错觉率下降45-50%左右 ,可以有效地供给更为精确 、牢靠的成果 。

  从交际媒体的反应来看 ,网友最为重视的是此次DeepSeekR1更新后的考虑时刻变长。据测评显现 ,此次DeepSeek单使命处理时长可达30-60分钟。

本文转载:检溃 https://f6y.gylwzs.com/html/25d1899956.html

特别声明:本文仅供交流学习 , 版权归属原作者,部分文章推送时未能及时与原作者取得联系,并不代表本站赞同其观点和对其真实性负责,也不构成任何其他建议。若本文来源标注错误或无意侵犯到您的知识产权作品或损害了您的利益,我们会及时修改或删除。

         

文章评论

来说两句吧...共有76条评论