攻破AI最强守卫,赏金2万刀!Anthropic新方法可阻止95% Claude「越狱」行为 下午4时 2025/02/17 作者 新智元 后约48小时内,无人完全攻破新系统,将赏金提高到了最高2万美元。新方法真这么强? 最近,Anthro
微软:100款 GenAI 产品安全测试背后的 8 条教训与 5 个案例总结! 下午2时 2025/01/26 作者 PaperAgent 微软对100多款生成式AI产品进行了红队测试,并分享了八个主要教训和五个案例研究,以指导实际的AI安全测试,包括识别风险、评估大模型聊天机器人的应对能力等。
刚刚,OpenAI公开o1模型测试方法,人机协作时代! 下午8时 2024/12/15 上午5时 2024/11/22 作者 AIGC开放社区 专注AIGC领域的专业社区,关注微软&OpenAI、百度文心一言、讯飞星火等大语言模型(LLM)的发