跳至内容
每时AI

每时AI

  • 资讯
  • 国际
  • 分享
  • 大模型
  • 学术
  • 开源
  • 机器人
  • 关于我们

红队测试

攻破AI最强守卫,赏金2万刀!Anthropic新方法可阻止95% Claude「越狱」行为

下午4时 2025/02/17 作者 新智元

后约48小时内,无人完全攻破新系统,将赏金提高到了最高2万美元。新方法真这么强?
最近,Anthro

分类 资讯 标签 100万美元、 Anthropic、 概率模型、 深度学习、 红队测试、 越狱攻击 发表评论

微软:100款 GenAI 产品安全测试背后的 8 条教训与 5 个案例总结!

下午2时 2025/01/26 作者 PaperAgent

微软对100多款生成式AI产品进行了红队测试,并分享了八个主要教训和五个案例研究,以指导实际的AI安全测试,包括识别风险、评估大模型聊天机器人的应对能力等。

分类 分享 标签 GenAI、 微软、 案例研究、 红队测试、 缓解措施、 风险识别 发表评论

极客说|微软新模型:Phi-4 来了

下午4时 2024/12/27 作者 AIGC开放社区

作者:魏新宇 – 微软 AI 全球黑带高级技术专家
排版:Alan Wang
「极客说」 是一档专注

分类 资讯 标签 Phi-4模型、 去污染策略、 安全微调数据、 红队测试、 长序列处理、 魏新宇 发表评论

刚刚,OpenAI公开o1模型测试方法,人机协作时代!

下午8时 2024/12/15 上午5时 2024/11/22 作者 AIGC开放社区

专注AIGC领域的专业社区,关注微软&OpenAI、百度文心一言、讯飞星火等大语言模型(LLM)的发

分类 资讯 标签 OpenAI、 机器学习、 模型行为、 红队测试、 网络安全、 自然语言处理 发表评论

2025年 AGI AI AI技术 Anthropic ChatGPT Claude DeepSeek DeepSeek-R1 DeepSeek R1 GitHub GPT-4o LLM Manus Meta OpenAI Python Sam Altman 人工智能 人形机器人 具身智能 大型语言模型 大模型 大语言模型 字节跳动 开源 强化学习 微软 扩散模型 技术创新 智能体 木易 机器学习 深度学习 清华大学 生成式AI 用户体验 百度 腾讯 自然语言处理 英伟达 谷歌 阿里云 阿里巴巴 马斯克

近期文章

  • 造梦师手记:赛博世界的真实少女
  • 不仅是幻方DS的独角戏,AI量化时代已来?
  • 马斯克公布SpaceX火星新计划,迈向多行星生命之路!
  • 轻量级AI记忆解决方案Memvid,执行不受信任AI代码MICROSANDBOX,OpenAPI 转 MCP 服务器工具
  • 自动抓取抖音热门音乐榜单的工具,支持高潮片段提取和可视化展示

分类

  • 分享
  • 国际
  • 大模型
  • 学术
  • 开源
  • 机器人
  • 资讯
2025 年 5 月
一 二 三 四 五 六 日
 1234
567891011
12131415161718
19202122232425
262728293031  
« 4 月    

归档

  • 2025 年 5 月
  • 2025 年 4 月
  • 2025 年 3 月
  • 2025 年 2 月
  • 2025 年 1 月
  • 2024 年 12 月
  • 2024 年 11 月

AI新闻 | X平台 | APK反编译 | 京ICP备2024096144号 |
© 2025 每时AI • Built with GeneratePress
 下载我们的APP,AI秒送达!  立即下载
×