跳至内容
每时AI

每时AI

  • 资讯
  • 国际
  • 分享
  • 大模型
  • 学术
  • 开源
  • 机器人
  • 关于我们

模型对齐

60%情况下,主流大模型没理解风险只是装懂!别被模型的“安全答案”骗了

2025年6月10日11时 作者 量子位

认知危机:
即使生成合规答案,
超60%
的案例中模型并未真正理解风险。
换句话说,
主流推理模型的

分类 资讯 标签 大语言模型、 安全性挑战、 安全推理能力、 模型对齐、 解码策略调整、 预训练数据优化 发表评论

你真的懂 LLM 吗?揭秘大语言模型的核心奥秘!

2025年3月24日23时 作者 PyTorch研习社

类智能的能力
,使其能够执行如
感知、推理、决策、学习和创造
等任务。AI 的发展经历了多个阶段,从

分类 分享 标签 DeepSeek、 RAG、 可解释性、 安全隐患、 幻觉问题、 模型对齐 发表评论

ChatGPT后训练方法被OpenAI离职联创公开,PPT全网转~

2025年2月19日8时 作者 量子位

OpenAI前员工John Schulman和Barret Zoph分享了他们在后训练阶段开发ChatGPT的经验,并发布了相关PPT。他们讨论了监督微调、奖励模型和强化学习等关键组成部分,以及如何处理拼写错误和其他挑战。

分类 资讯 标签 Barret Zoph、 John Schulman、 OpenAI、 后训练方法、 奖励模型、 模型对齐 发表评论

AGI AI AI技术 Anthropic ChatGPT Claude DeepSeek DeepSeek-R1 DeepSeek R1 GitHub GPT-4o LLM Meta OpenAI Python Sam Altman 人工智能 人形机器人 具身智能 大型语言模型 大模型 大语言模型 字节跳动 工业机器人 开源 强化学习 微软 扩散模型 技术创新 智能体 木易 机器学习 深度学习 清华大学 生成式AI 用户体验 百度 腾讯 自然语言处理 英伟达 谷歌 阿里云 阿里巴巴 马斯克 黄仁勋

分类

  • 分享
  • 国际
  • 大模型
  • 学术
  • 开源
  • 机器人
  • 资讯
  • 皮衣换唐装,首次中文演讲,老黄亮相链博会展望物理AI,人形机器人各种火爆出圈儿
  • 黄仁勋最新演讲: AI下一波浪潮将是机器人系统
  • 阿斯麦Q2销售超预期,AI推动订单大增
  • 明星初创公司Anthropic推出专业金融AI服务
  • 突发!Cursor全面限制国内使用部分模型,非常彻底!

2025 年 7 月
一 二 三 四 五 六 日
 123456
78910111213
14151617181920
21222324252627
28293031  
« 6 月    

归档

  • 2025 年 7 月
  • 2025 年 6 月
  • 2025 年 5 月
  • 2025 年 4 月
  • 2025 年 3 月
  • 2025 年 2 月
  • 2025 年 1 月
  • 2024 年 12 月
  • 2024 年 11 月

AI新闻 | X平台 | APK反编译 | 京ICP备2024096144号 |
© 2025 每时AI • Built with GeneratePress
 下载我们的APP,AI秒送达!  立即下载
×