多任务学习
DeepMind最新研究:逆向思维训练LLM可大幅提升AI推理能力
Google DeepMind的研究表明逆向思维训练大模型(LLMs)能显著提升其推理能力,通过构建包含正反向问题的数据集并利用知识蒸馏框架优化模型。
KDD 2025 人大团队提出多任务贝叶斯联邦学习算法,同时处理分类和回归
本文介绍了一篇关于多任务贝叶斯联邦学习的文章,该文章在KDD 2025上被接收。通过结合局部设备下的多任务学习与全局水平的联邦学习,缓解了有限数据下的过拟合问题,并展示了其在分类和回归任务中的优越性能。
RoboMIND:国家地方共建具身智能机器人创新中心与北京大学计算机学院联合创建的具身智能数据集和Benchmark
伴随着全球人工智能技术飞速进步,具身智能产业迅猛发展,赋予机器人类人化的泛化能力是具身智能机器人技术
AAAI 2025 开放世界的深伪检测,北交大团队:解决好无配对数据挑战很重要
AIxiv专栏接收并发表了北京交通大学赵耀、陶仁帅团队的研究工作,提出了一种新的非配对数据下的开放世界深伪检测方法(ODDN),有效解决了社交媒体中配对数据稀缺和压缩影响带来的挑战。