NeurIPS 2024 自我纠错如何使OpenAI o1推理能力大大加强?北大、MIT团队给出理论解释
AIxiv专栏介绍及其相关研究,讨论了大语言模型中的自我纠错能力,并提出了理论分析方法。该研究指出,自我纠错是一种上下文对齐过程,通过优化LLM的最终输出以获得更高的奖励。
AIxiv专栏介绍及其相关研究,讨论了大语言模型中的自我纠错能力,并提出了理论分析方法。该研究指出,自我纠错是一种上下文对齐过程,通过优化LLM的最终输出以获得更高的奖励。
Akash Systems 与美国商务部签署备忘录,计划使用钻石冷却技术提升 GPU 效率,并应用于卫星通信。该技术能降低热点温度、减少风扇速度并提高超频能力。未来或使数据中心节省数百万美元的冷却成本。
英伟达发布的新一代AI芯片Blackwell因过热问题推迟发货,引发了客户担忧。尽管存在良品率低和设计缺陷的问题,但其强大的计算能力和能耗优势仍受到热烈追捧。
国内大模型初创公司月之暗面推出的新一代推理模型Kimi k0-math在数学能力上已实现对标OpenAI o1-mini和o1-preview,包括在中考、高考等基准测试中表现出色。该模型采用了强化学习和思维链推理技术,能够模拟人脑的思考过程,并能有效应对竞赛级别的数学题库。
MLNLP
社区是国内外知名的机器学习与自然语言处理社区,受众覆盖国内外NLP硕博生、高校老师以及企
2024年11月,长三角(芜湖)算力算法创新应用大赛在芜湖成功举办,吸引了国内外596支团队参赛。芜湖市政府主办,并通过吸引顶尖人才和项目落地,推动人工智能产业发展,加速“数字芜湖”建设。
近日,The Information 报道引发关于大模型 Scaling Laws 是否达到极限的争议。OpenAI 的新模型 Orion 相比 GPT-3 和 GPT-4 性能提升有限。业内认为传统 Scaling Laws 已经进入边际效应递减阶段,需关注扩大正确规模和优化推理时间。MIT 研究指出测试时训练在提高抽象推理任务上的性能有效。