跳至内容
每时AI

每时AI

  • 资讯
  • 国际
  • 分享
  • 大模型
  • 学术
  • 开源
  • 机器人
  • 关于我们

线性可分性

NeurIPS 2024 利用概念激活向量破解大模型的安全对齐,人大&港科大揭示LLM重要安全风险漏洞

2024年11月19日13时 作者 每时AI

随着大语言模型能力的快速提升,其潜在的安全隐患愈发显著。尽管开发者进行了大量安全对齐工作,以避免模型被用于恶意 … 阅读更多

分类 大模型、 学术 标签 SCAV框架、 多层协同作用、 嵌入层攻击、 提示层攻击、 攻击迁移性、 线性可分性 发表评论

2025年 AGI AI AI技术 Anthropic ChatGPT Claude DeepSeek DeepSeek-R1 DeepSeek R1 GitHub GPT-4o LLM MCP Meta OpenAI Python Sam Altman 人工智能 人形机器人 具身智能 大型语言模型 大模型 大语言模型 字节跳动 开源 强化学习 微软 扩散模型 技术创新 智能体 木易 机器学习 深度学习 清华大学 生成式AI 用户体验 百度 腾讯 自然语言处理 英伟达 谷歌 阿里云 阿里巴巴 马斯克

分类

  • 分享
  • 国际
  • 大模型
  • 学术
  • 开源
  • 机器人
  • 资讯
  • 使用 LangGraph 打造 Multi-Agent 系统
  • 一个rust写的类似dos的小型操作系统
  • 提示工程101第十七课:提示词格式与结构
  • 移动端大模型推理框架——cactus
  • 一款开源的AI智能体效率工具Chaterm——专为运维人员设计

2025 年 6 月
一 二 三 四 五 六 日
 1
2345678
9101112131415
16171819202122
23242526272829
30  
« 5 月    

归档

  • 2025 年 6 月
  • 2025 年 5 月
  • 2025 年 4 月
  • 2025 年 3 月
  • 2025 年 2 月
  • 2025 年 1 月
  • 2024 年 12 月
  • 2024 年 11 月

AI新闻 | X平台 | APK反编译 | 京ICP备2024096144号 |
© 2025 每时AI • Built with GeneratePress
 下载我们的APP,AI秒送达!  立即下载
×