加州大学、蒙特利尔大学、耶鲁大学、中国人民大学等知名学者重磅来袭!

MLNLP 社区是国内外知名自然语言处理社区,受众覆盖国内外NLP硕博生、高校老师以及企业研究人员。
社区的愿景 是促进国内外自然语言处理,机器学习学术界、产业界和广大爱好者之间的交流,特别是初学者同学们的进步。

MLNLP 2025学术研讨会 是由 MLNLP社区中国中文信息学会青年工作委员会  中国中文信息学会大模型与生成专业专委会 联合举办的学术活动。社区会定期举办学术研讨会并邀请国内外机器学习与自然语言处理领域知名青年学者进行报告交流,旨在加强国内外学者之间的交流。

MLNLP社区将在04月27于线上举办第三十次学术研讨会,由中国人民大学的朱余韬博士后和北京师范大学的朱倩男讲师共同担任本期程序委员会主本期研讨会分为上下两半场:上半场由朱余韬主持;下半场由朱倩男主持。具体而言,社区很荣幸邀请到中国人民大学教授窦志成老师担任大会主席,并做开场致辞;加州大学博士后顾佳宸,蒙特利尔大学博士生莫冯然,耶鲁大学副研究科学家谢倩倩,中国人民大学博士生李晓熙做专题报告。


1

会议概况


  • 召开时间:

    • 2025年04月27日 9:00-11:10(北京时间)

  • 主办单位:

    • MLNLP社区

    • 中国中文信息学会青年工作委员会

    • 中国中文信息学会大模型与生成专业专委会

  • 大会主席:

    • 窦志成中国人民大学教授

  • 程序委员会主席:

    • 朱余韬中国人民大学博士后

    • 朱倩男北京师范大学讲师

  • 组委会:

    • MLNLP社区秘书处(刘洪宇、段然、陈麒光、鹿纯林、李勤政、周璟轩)

  • 直播平台:

    • 哔哩哔哩:http://live.bilibili.com/23872620

    • 微信视频号:请点击下方卡片预


2

日程安排



3

嘉宾介绍


一、大会主席:

窦志成

中国人民大学教授

嘉宾简介:窦志成,教授,博导,中国人民大学高瓴人工智能学院副院长,中国计算机学会大数据专家委员会秘书长,中国中文信息学会理事、信息检索专委会副主任。主要研究方向为智能信息检索、大模型以及二者的融合,曾获教育部自然科学奖一等奖、国际信息检索大会(SIGIR 2013)最佳论文提名奖,WWW 2023亮点论文奖,亚洲信息检索大会(AIRS 2012)最佳论文奖,全国信息检索学术会议(CCIR 2018、CCIR 2021)最佳论文奖。担任SIGIR 2019的程序委员会主席(短文),信息检索评测会议NTCIR-16程序委员会主席等职务。


二、主持人:

朱余韬

中国人民大学博士后

嘉宾简介:朱余韬,中国人民大学高瓴人工智能学院博士后,合作导师为窦志成教授。CIPS青工委成员,CCIR专委会委员。研究方向为信息检索与大语言模型。2023年毕业于蒙特利尔大学并获博士学位。博士期间曾获谷歌卓越博士生奖学金。目前,在人工智能和信息检索领域的国际顶级期刊和会议上发表学术论文30余篇。担任多个国际学术会议如ACL、NeurIPS、ICML、ICLR、WWW、KDD、SIGIR的程序委员会委员,并为ACM TOIS、JASIST、KAIS等国际学术期刊的审稿人。


朱倩男

北京师范大学讲师

嘉宾简介:朱倩男,北京师范大学人工智能学院讲师,CIPS青工委成员,入选全球AI华人女性青年学者Top-80。2021至2023年中国人民大学高瓴人工智能学院博后,师从窦志成教授。现在北京师范大学人工智能学院黄华教授团队,主要从事信息检索、推荐系统、教育大模型及相关教育应用等领域的研究工作。近几年以第一作者和主要作者身份发表近20余篇高质量的学术期刊和会议论文,包括IEEE TKDE、WWW、AAAI、IJCAI、CIKM、WSDM等。任多个国际学术会议和期刊审稿人。同时以负责人身份主持国家自然科学基金(面上、青年基金、博后站中)等多项项目。

三、分享嘉宾:

顾佳宸

加州大学博士后

嘉宾简介:顾佳宸,加州大学洛杉矶分校计算机系博士后,师从Nanyun (Violet) Peng教授和Kai-Wei Chang教授,研究方向涵盖检索增强语言模型和知识编辑等领域。他以第一作者获得ACL 2023 Best Paper Honorable Mention Award,以第二作者获得DialDoc@ACL 2022 Best Paper Award。他是中国中文信息学会优秀博士论文提名奖和中国科学院院长奖学金获得者。个人主页:https:// jasonforjoy.github.io/

报告题目:自适应路由检索增强:知识言语化下的选择性检索

报告简介:选择性检索通过减少低质量检索带来的干扰并提高效率,提升了检索增强生成(RAG)的性能。然而,现有方法未能充分利用大语言模型(LLM)固有的知识,导致检索决策次优,并影响生成性能。为弥补这一缺陷,我们提出了一种新的框架——自适应路由RAG(Self-Routing RAG),将选择性检索与知识言语化结合。Self-Routing RAG 使 LLM 能够动态决定是依赖外部检索还是利用其自身的参数化知识进行言语化表达。为此,我们设计了一种多任务目标,对 LLM 进行联合优化,包括知识源选择、知识言语化和回复生成。此外,我们引入基于近邻搜索的动态知识源推理,以提高在领域迁移情况下的知识源决策准确性。使用Self-Routing RAG 微调三种 LLM 后,其回复准确性和推理延迟均得到显著提升。与最强的选择性检索基线相比,Self-Routing RAG将检索次数减少 29%,同时提升性能 5.1%。


莫冯然

蒙特利尔大学博士生


嘉宾简介:莫冯然,加拿大蒙特利尔大学计算机科学与运筹学系博士研究生,师从ACM SIGIR Academy聂建云教授,研究方向涵盖信息检索,对话式AI系统,多语言NLP等。他已在人工智能顶级会议发表论文二十余篇,担任多个国际学术会议如ACL、SIGIR、WWW、CIKM、EMNLP等的程序委员会委员与领域主席,并为ACM TOIS、CSUR等国际学术期刊的审稿人,曾获WWW 2023亮点论文奖和EMNLP 2024最佳资源论文奖

报告题目:基于大语言模型的对话式搜索系统

报告简介:大语言模型的发展逐渐改变着人们获取信息的方式与习惯,即从传统的单轮搜索转变为与系统不断交互的多轮搜索。对话式搜索系统通过基于自然语言的多轮交互实现用户对复杂和准确的信息访问需求,其主要难点为需要从复杂的多轮对话中准确解读用户意图。构建基于大语言模型的对话式搜索系统的核心在于两个关键组件:检索模块和生成模块。针对检索模块的构建,我们提出了ChatRetriever,继承了大型语言模型强大的泛化能力,能够稳健地表示复杂的对话会话,从而实现稠密检索(Dense Retrieval)。进一步的,针对生成模块的构建,我们提出了UniConv,探讨了如何在对话中统一基于大语言模型的密集检索和响应生成。我们期待通过这次分享,与社区一起推动结合信息检索的大语言模型领域的研究和持续进步。


谢倩倩

耶鲁大学副研究科学家

嘉宾简介:谢倩倩,耶鲁大学副研究科学家,主要研究方向为自然语言处理以及其在医学和金融领域的应用。她曾在康奈尔大学、曼彻斯特大学和蒙特利尔大学工作和访问。她在国际顶级会议NeurIPS/ACL/EMNLP/NAACL/KDD/SIGIR /WWW /ICDM/COLING和国际顶级期刊Nature Communications/npj Digital Medicine /TOIS/TKDE等发表了50余篇论文。她曾担任 ACL 2023、EMNLP 2023、ACL 2025和COLING 2025 的领域主席,担任 FinNLP-FNP-LLMFinLegal@COLING-2025 研讨会的大会联合主席,同时也是 FinNLPAgentScen@IJCAI-2024 和 BioNLP@ACL 2023 研讨会所举办的share task的组织者。她长期担任NeurIPS /ICLR/ICML/ACL/EMNLP/NAACL/KDD/ npj Digital Medicine等会议和期刊的审稿人。她曾获得美国国立卫生研究院支持青年科学家的最高奖项之一NIH K99/R00 Pathway to Independence Award和CCL 2024亮点英文论文奖。个人主页:https://qianqian-xie.github.io

报告题目:面向垂直领域的大语言模型落地应用:基准、模型、智能体与应用

报告简介:大语言模型在金融、医学和法律等专业领域的应用潜力正日益凸显,但要有效推动大语言模型在这些领域的真正落地,必须具有完善的专业评测基准、专业化的模型及稳健的评估框架。在这次报告中,我将探讨实现这些高专业度领域AI 落地的四大关键要素,并分享 我们在推动这些方向上的探索与实践。首先,我将介绍 FinBen—面向金融领域的大语言模型评测基准,覆盖 42 个数据集、24 项金融任务,并融入智能体交易评估和检索增强式生成等前沿方法,全方位衡量模型的表现。接下来,我将分享 Open-FinLLMs,一系列针对金融自然语言处理、预测与决策优化的领域大语言模型,旨在提升对复杂金融语境的理解与推理能力。随后,我将聚焦 FinCon ,面向金融决策任务的多智能体系统,展示其在强化金融推理和协作决策中的应用价值,助力模型在真实金融场景中更为高效地处理高维度、多变量数据。最后,我会介绍 HARMONIC,面向隐私保护的数据合成框架,为安全合规的 AI 部署提供了关键保障,帮助模型在保护敏感信息的同时实现持续迭代与创新。报告将结合我们在这些方向上所积累的经验与成果,探讨未来领域专用大语言模型的发展趋势例如多模态学习和多语种适配,以及多智能体在真实应用场景中的广阔前景。我们期待通过本次分享,与更多研究者和从业者共同推进大语言模型在专业领域的持续演进与深度落地。


李晓熙

中国人民大学博士生

嘉宾简介:李晓熙,中国人民大学高瓴人工智能学院博士研究生,师从窦志成教授指导,研究方向涵盖检索增强生成和大语言模型推理等领域。他在顶级会议和期刊如AAAI,SIGIR,TOIS等发表多篇论文。

报告题目:WebThinker:赋予类o1推理模型深度研究能力

报告简介:推理模型如OpenAI-o1、Qwen-QwQ在复杂的推理任务中表现突出,但存在知识不足的明显缺陷。本次报告将依次分享两篇工作,探讨如何深度结合“推理过程”与“外部知识搜索”:(1)Search-o1,一个能够让推理模型边思考边搜索的框架,并通过外部的文档推理模块深度分析检索的文档,来保持推理过程的连贯性;(2)WebThinker,在此基础上继续增加了网页探索的深度以实现深度研究的能力,并能够让推理模型自主撰写完整的调研报告。此外,WebThinker还引入了基于RL的模型训练,来进一步强化模型深度研究的能力。通过这次分享,我们期待与社区共同推动大模型推理领域的研究进展



4

直播平台


视频号


B站


5

会议报名


会议报名可以直接扫描下方二维码进入交流群。会议的观看地址等信息都会在群里通知。已经加入MLNLP交流群的同学请不用重复添加!

扫描二维码进入MLNLP交流群


关于我们

MLNLP 社区是由国内外机器学习与自然语言处理学者联合构建的民间学术社区,目前已经发展为国内外知名的机器学习与自然语言处理社区,旨在促进机器学习,自然语言处理学术界、产业界和广大爱好者之间的进步。
社区可以为相关从业者的深造、就业及研究等方面提供开放交流平台。欢迎大家关注和加入我们。


(文:机器学习算法与自然语言处理)

发表评论

×

下载每时AI手机APP

 

和大家一起交流AI最新资讯!

立即前往