MiniMax开源首个混合注意力推理大模型,Kimi开源编码LLM

MiniMax-M1发布首个开源混合注意力推理大模型,支持超长上下文和高效计算;Kimi-Dev-72B用于软件工程任务的开源代码LLM在SWE-bench上实现先进性能;Zibly提升大型语言模型应用分析;GHOSTCREW是基于AI的渗透测试助手;Roo Commander是一种智能工作流编排系统。

炸裂!MiniMax推出全球最长上下文推理模型M1:512张H800三周完成训练,成本仅54万美金

MiniMax举办开源周活动,正式发布最新推理模型MiniMax-M1,支持100万token输入与8万token输出,参数量达4560亿。通过大规模强化学习训练,仅耗资53.47万美元。该模型采用混合注意力架构和闪电注意力机制,显著提升推理效率,并在复杂任务中表现突出。