MLNLP学术Talk是MLNLP社区举办的学术交流活动,旨在邀请一线青年学者分享最前沿的技术,期待最精彩的思想火花碰撞。
本期MLNLP学术Talk邀请了清华大学肖朝军在2025年3月1日10:00-11:00为我们带来“高效稀疏注意力机制研究”的主题报告。详细信息如下:
讲者简介
个人介绍:
肖朝军,清华大学计算机系博士生,导师为刘知远老师。研究方向为大语言模型、高效大模型架构,在人工智能国际顶级会议及期刊发表论文十余篇,曾获钱伟长中文信息处理科学技术奖一等奖(排名第4),腾讯犀牛鸟精英人才计划一等奖学金,CIKM最佳资源论文提名奖,全国社会媒体处理大会最佳论文奖等荣誉。
报告摘要
随着以大模型长文本理解与生成为核心的实际应用蓬勃发展,如何降低自注意力机制的高昂计算开销、提升大模型处理长文本序列的能力,已成为当前研究的热点问题。本报告旨在系统介绍以稀疏注意力机制为核心的长文本处理相关研究,包括稀疏注意力规则设计、缓存压缩技术、分布式计算优化等内容,探索为长文本计算提供高效解决方案的方法与路径。
主持人介绍
赵阳洋,长沙理工大学计算机学院青年教师,2022年12月博士毕业于华南理工大学,曾在荷兰Utrecht Uiversity进行联合培养。主要研究方向为AI Agent的规划决策,目前以第一作者及通讯作者在TACL,EMNLP,AAAI等NLP和AI领域学术会议发表论文10余篇。主持并参与多项湖南省,广东省和国家自然科学基金项目,曾获得华南理工大学校长奖学金等荣誉。
直播平台
视频号
B站
关于我们
(文:机器学习算法与自然语言处理)