英伟达大牛主讲!斯坦福吴恩达:大语言模型的后训练课程全网发布

最新课程:吴恩达「大语言模型后训练」上线。该课程详细讲解三种常见的后训练方法——监督微调、直接偏好优化和在线强化学习,并介绍如何利用这些方法提升LLM的性能。适合希望针对特定任务定制语言模型的开发者。

真有论文这么干?多所全球顶尖大学论文,竟暗藏AI好评指令

全球多所顶尖大学的研究论文被植入AI能读取的秘密指令以影响评分,引发学术诚信担忧。该技术被称为提示词注入攻击,可能破坏同行评审的公正性。学术界对此事反应不一,部分学者认为这是正当防卫,但多数人支持透明使用AI。

刚刚,英伟达任命新首席研究科学家!95后,本科来自清华

老黄现身与两位华人合影,Banghua Zhu加入英伟达Star Nemotron团队专注企业级智能体研发;Jiantao Jiao入职英伟达。两人曾共同创办Nexusflow,拥有深厚学术背景和丰富经验。英伟达正布局企业级智能体解决方案。

训练1000样本就能超越o1,李飞飞等人画出AI扩展新曲线

斯坦福大学和华盛顿大学的研究人员提出了一个新的测试时间扩展方法s1,仅使用1000个样本就实现了与OpenAI o1级别的预览性能。该方法通过预算强制来控制解码时间,并在数学问题上提升了27%的表现。

UC伯克利等最新实锤:LLM就是比人类啰嗦,「提问的艺术」仍难参透

研究评估了大模型与人类在基于段落文本生成问题的能力上存在显著差异,包括问题类型、长度、上下文覆盖率和答案所需长度等方面。