Meta发布V‑JEPA 2:无需标注,让AI像人类一样看世界、推理、行动

Meta发布V-JEPA 2模型,通过学习超过一百万小时的原始视频建立直觉世界模型,无需人工标注帮助AI Agents理解物理常识并规划行动。该模型采用联合嵌入预测架构训练,在视频上进行自监督学习,能处理多视角短视频,并具备强大的视觉空间下自回归规划能力。

12.6k,谷歌这个开源项目炸了,全栈AI Agent

Gemini Fullstack LangGraph Quickstart项目两周内获得12.6k star。该项目使用React前端和LangGraph代理的全栈应用程序进行高级研究和会话式AI支持,通过动态生成搜索词、Google Gemini模型及网络研究发现知识差距,并改进搜索直至提供包含引文的答案。

ACL’25 多智能体叛变进行中?首个多智能体安全守卫G-Safeguard亮相!

论文提出了一种名为G-Safeguard的安全防护框架,旨在保护基于大型语言模型的多智能体系统免受攻击。该框架利用图神经网络实时监控和识别异常行为,并通过拓扑干预阻断恶意信息传播。