ICML 2025 全局池化+局部保留,CCA-Attention为LLM长文本建模带来突破性进展
的高效上下文建模。在 128K 超长序列上下文建模任务中,CCA-Attention 的推理速度是标
的高效上下文建模。在 128K 超长序列上下文建模任务中,CCA-Attention 的推理速度是标
ICLR 2025杰出论文奖揭晓。包括普林斯顿大学、Google DeepMind等机构的论文在内,共评选出3篇杰出论文和3篇荣誉提名论文,涵盖安全对齐、学习动态及模型编辑等多个方向的研究成果。
诚邀各位莅临展位G06,参加技术交流及合作对接活动;同时还有人才机遇和精美周边赠送。北京中关村学院和中关村人工智能研究院共同举办此次盛会。
ICLR 2025将于新加坡举行,重点在大模型优化和训练效率提升。研梦非凡提供直播课,详解Dobi-SVD压缩方法,并邀请杨导师解读相关论文。
大模型时代,ICLR 2025 论文分享会吸引了大量研究机构和高校参会。该活动将设置 Keynote、论文分享、圆桌对话、Poster 展示环节,邀请顶级专家与作者交流热门主题,包括多模态、Agent 等。
Sakana AI 推出了AI科学家-v2系统,它通过了ICLR会议一个研讨会的同行评审过程。该系统生成了一篇完整且通过同行评审的科学论文,展现了AI在科学研究中的潜力。
本文介绍了一种新的扩散策略ET-SEED,它结合了轨迹级SE(3)等变性扩散和高效的去噪策略,在少量示范数据下能够高效学习复杂的机器人操作技能,并且在不同物体姿态和场景下的泛化能力也得到了提升。
OSCAR 是一种开源解决方案,实现了桌面任务 UI 自动化。它采用状态机架构和动态重规划技术,在不同操作系统环境中的多个应用中验证了其有效性,并在基准测试中表现出色。