肖朝军@清华大学:高效稀疏注意力机制研究

MLNLP社区是国内外知名的机器学习与自然语言处理社区,受众覆盖国内外NLP硕博生、高校老师以及企业研究人员。
社区的愿景是促进国内外自然语言处理,机器学习学术界、产业界和广大爱好者之间的交流和进步,特别是初学者同学们的进步。

MLNLP学术TalkMLNLP社区举办的学术交流活动,旨在邀请一线青年学者分享最前沿的技术,期待最精彩的思想火花碰撞。

本期MLNLP学术Talk邀请了清华大学肖朝军在2025年3月1日10:00-11:00为我们带来高效稀疏注意力机制研究的主题报告。详细信息如下:

1

讲者简介

个人介绍:

朝军,清华大学计算机系博士生,导师为刘知远老师。研究方向为大语言模型、高效大模型架构,在人工智能国际顶级会议及期刊发表论文十余篇,曾获钱伟长中文信息处理科学技术奖一等奖(排名第4),腾讯犀牛鸟精英人才计划一等奖学金,CIKM最佳资源论文提名奖,全国社会媒体处理大会最佳论文奖等荣誉。

2

报告摘要

随着以大模型长文本理解与生成为核心的实际应用蓬勃发展,如何降低自注意力机制的高昂计算开销、提升大模型处理长文本序列的能力,已成为当前研究的热点问题。本报告旨在系统介绍以稀疏注意力机制为核心的长文本处理相关研究,包括稀疏注意力规则设计、缓存压缩技术、分布式计算优化等内容,探索为长文本计算提供高效解决方案的方法与路径。

3

主持人介绍

赵阳洋,长沙理工大学计算机学院青年教师,2022年12月博士毕业于华南理工大学,曾在荷兰Utrecht Uiversity进行联合培养。主要研究方向为AI Agent的规划决策,目前以第一作者及通讯作者在TACL,EMNLP,AAAI等NLP和AI领域学术会议发表论文10余篇。主持并参与多项湖南省,广东省和国家自然科学基金项目,曾获得华南理工大学校长奖学金等荣誉。


4

直播平台

视频号

B站



关于我们

MLNLP 社区是由国内外机器学习与自然语言处理学者联合构建的民间学术社区,目前已经发展为国内外知名的机器学习与自然语言处理社区,旨在促进机器学习,自然语言处理学术界、产业界和广大爱好者之间的进步。
社区可以为相关从业者的深造、就业及研究等方面提供开放交流平台。欢迎大家关注和加入我们。

(文:机器学习算法与自然语言处理)

欢迎分享

发表评论