跳至内容
每时AI

每时AI

  • 资讯
  • 国际
  • 分享
  • 大模型
  • 学术
  • 开源
  • 机器人
  • 关于我们

模型对齐

60%情况下,主流大模型没理解风险只是装懂!别被模型的“安全答案”骗了

2025年6月10日11时 作者 量子位

认知危机:
即使生成合规答案,
超60%
的案例中模型并未真正理解风险。
换句话说,
主流推理模型的

分类 资讯 标签 大语言模型、 安全性挑战、 安全推理能力、 模型对齐、 解码策略调整、 预训练数据优化 发表评论

你真的懂 LLM 吗?揭秘大语言模型的核心奥秘!

2025年3月24日23时 作者 PyTorch研习社

类智能的能力
,使其能够执行如
感知、推理、决策、学习和创造
等任务。AI 的发展经历了多个阶段,从

分类 分享 标签 DeepSeek、 RAG、 可解释性、 安全隐患、 幻觉问题、 模型对齐 发表评论

ChatGPT后训练方法被OpenAI离职联创公开,PPT全网转~

2025年2月19日8时 作者 量子位

OpenAI前员工John Schulman和Barret Zoph分享了他们在后训练阶段开发ChatGPT的经验,并发布了相关PPT。他们讨论了监督微调、奖励模型和强化学习等关键组成部分,以及如何处理拼写错误和其他挑战。

分类 资讯 标签 Barret Zoph、 John Schulman、 OpenAI、 后训练方法、 奖励模型、 模型对齐 发表评论

AGI AI AI技术 Anthropic ChatGPT Claude DeepSeek DeepSeek-R1 DeepSeek R1 GitHub GPT-4o LLM Meta OpenAI Python Sam Altman 人工智能 人形机器人 具身智能 大型语言模型 大模型 大语言模型 字节跳动 工业机器人 开源 强化学习 微软 扩散模型 技术创新 智能体 木易 机器学习 深度学习 清华大学 生成式AI 用户体验 百度 腾讯 自然语言处理 英伟达 谷歌 阿里云 阿里巴巴 马斯克 黄仁勋

分类

  • 分享
  • 国际
  • 大模型
  • 学术
  • 开源
  • 机器人
  • 资讯
  • 当 LLM 编程陷入“幻觉陷阱”,字节工程师如何用 ABCoder 精准控场
  • 香港私隐专员公署答南都:已就男生制AI色情照展开刑事调查
  • 着唐装、讲中文,黄仁勋称AI的下一波浪潮是机器人
  • 黄仁勋:中国的开源AI是推动全球进步的催化剂
  • 突发 Meta 挖走的OpenAI 核心研究员Jason Wei,离职前留下这样的一段话

2025 年 7 月
一 二 三 四 五 六 日
 123456
78910111213
14151617181920
21222324252627
28293031  
« 6 月    

归档

  • 2025 年 7 月
  • 2025 年 6 月
  • 2025 年 5 月
  • 2025 年 4 月
  • 2025 年 3 月
  • 2025 年 2 月
  • 2025 年 1 月
  • 2024 年 12 月
  • 2024 年 11 月

AI新闻 | X平台 | APK反编译 | 京ICP备2024096144号 |
© 2025 每时AI • Built with GeneratePress
 下载我们的APP,AI秒送达!  立即下载
×