跳至内容
每时AI

每时AI

  • 资讯
  • 国际
  • 分享
  • 大模型
  • 学术
  • 开源
  • 机器人
  • 关于我们

线性可分性

NeurIPS 2024 利用概念激活向量破解大模型的安全对齐,人大&港科大揭示LLM重要安全风险漏洞

2024年11月19日13时 作者 每时AI

随着大语言模型能力的快速提升,其潜在的安全隐患愈发显著。尽管开发者进行了大量安全对齐工作,以避免模型被用于恶意 … 阅读更多

分类 大模型、 学术 标签 SCAV框架、 多层协同作用、 嵌入层攻击、 提示层攻击、 攻击迁移性、 线性可分性 发表评论

AGI AI AI技术 Anthropic ChatGPT Claude DeepSeek DeepSeek-R1 DeepSeek R1 GitHub Google GPT-4o LLM Meta OpenAI Python Sam Altman 人工智能 人形机器人 具身智能 大型语言模型 大模型 大语言模型 字节跳动 工业机器人 开源 强化学习 微软 扩散模型 技术创新 智能体 木易 机器学习 深度学习 清华大学 生成式AI 用户体验 百度 腾讯 自然语言处理 英伟达 谷歌 阿里云 阿里巴巴 马斯克

分类

  • 分享
  • 国际
  • 大模型
  • 学术
  • 开源
  • 机器人
  • 资讯
  • Arlo 将 AI 音频检测添加到安全计划中
  • 打破“思考陷阱”:DuP-PO算法让AI推理更高效
  • 被遗忘的知识们活过来了!飞书知识问答深度体验,给企业们定制专属豆包
  • 大型语言模型的“推理升级”:自适应策略让AI更聪明
  • 多模态数学推理新突破:多样化视角让模型“开窍”!

2025 年 7 月
一 二 三 四 五 六 日
 123456
78910111213
14151617181920
21222324252627
28293031  
« 6 月    

归档

  • 2025 年 7 月
  • 2025 年 6 月
  • 2025 年 5 月
  • 2025 年 4 月
  • 2025 年 3 月
  • 2025 年 2 月
  • 2025 年 1 月
  • 2024 年 12 月
  • 2024 年 11 月

AI新闻 | X平台 | APK反编译 | 京ICP备2024096144号 |
© 2025 每时AI • Built with GeneratePress
 下载我们的APP,AI秒送达!  立即下载
×