MiniMax重磅开源M1模型:百万上下文超DeepSeek R1,实现性能与效率双杀
国内 AI 六小虎之一的 MiniMax 正式开源其首个推理模型 M1,支持百万级上下文长度,在性能和效率方面表现出与众不同的技术路径和表现。
国内 AI 六小虎之一的 MiniMax 正式开源其首个推理模型 M1,支持百万级上下文长度,在性能和效率方面表现出与众不同的技术路径和表现。
Andrej Karpathy警告AI Agent正处于早期计算机时代的‘狂野西部’,强调了访问私密数据、暴露不可信内容及具备对外通信能力的危险性,并指出了致命三要素对安全构成威胁。
阿里推出支持苹果MLX架构的Qwen3模型,包含4种精度。该适配涵盖了从0.6B到235B的8个尺寸和多种精度。此举旨在回应外界对苹果AI技术进展的担忧,并为用户提供一致且高效的本地AI体验。
MiniMax-M1发布首个开源混合注意力推理大模型,支持超长上下文和高效计算;Kimi-Dev-72B用于软件工程任务的开源代码LLM在SWE-bench上实现先进性能;Zibly提升大型语言模型应用分析;GHOSTCREW是基于AI的渗透测试助手;Roo Commander是一种智能工作流编排系统。
Kimi发布开源代码模型Kimi-Dev,在SWE-bench Verified上取得60.4%成绩,参数量只有72B。该模型采用BugFixer和TestWriter两种角色的结合进行训练,目前权重和代码均已发布。
国产推理大模型MiniMax-M1开源,支持高达10万token生成。其混合注意力架构和CISPO算法提升了训练效率,并在多个基准测试中表现优异。
表现良好的 MindIE 推理引擎
,并原生支持 Atlas 800 A2 系列和 Atlas 30
MiniMax举办开源周活动,正式发布最新推理模型MiniMax-M1,支持100万token输入与8万token输出,参数量达4560亿。通过大规模强化学习训练,仅耗资53.47万美元。该模型采用混合注意力架构和闪电注意力机制,显著提升推理效率,并在复杂任务中表现突出。