HKU NLP知名学者重磅来袭!

MLNLP 社区是国内外知名自然语言处理社区,受众覆盖国内外NLP硕博生、高校老师以及企业研究人员。
社区的愿景是促进国内外自然语言处理,机器学习学术界、产业界和广大爱好者之间的交流,特别是初学者同学们的进步。

MLNLP 2025学术研讨会是由MLNLP社区中国中文信息学会青年工作委员会联合举办的学术活动。社区会定期举办学术研讨会并邀请国内外机器学习与自然语言处理领域知名青年学者进行报告交流,旨在加强国内外学者之间的交流。

MLNLP社区将在03月30于线上举办第二十九次学术研讨会,由香港大学的冯夏冲博士后李磊博士生共同担任本期程序委员会主本期研讨会分为上下两半场:上半场由冯夏冲主持;下半场由李磊主持。具体而言,社区很荣幸邀请到香港大学助理教授孔令鹏老师担任大会主席,并做开场致辞;香港大学博士陶熙佳,香港大学博士生谢天宝,华南理工大学本科生魏源成香港大学博士生龚姗三香港大学博士生谢知晖,香港大学博士生李沁桐做专题报告。


1

会议概况


  • 召开时间:

    • 2025年03月30日 9:00-12:10(北京时间)

  • 主办单位:

    • MLNLP社区

    • 中国中文信息学会青年工作委员会

  • 大会主席:

    • 孔令鹏香港大学助理教授

  • 程序委员会主席:

    • 冯夏冲香港大学博士后

    • 李磊香港大学博士生

  • 组委会:

    • MLNLP社区秘书处(刘洪宇、段然、陈麒光、鹿纯林、李勤政、周璟轩)

  • 直播平台:

    • 哔哩哔哩:http://live.bilibili.com/23872620

    • 微信视频号:请点击下方卡片预


2

日程安排



3

嘉宾介绍


一、大会主席:

孔令鹏

香港大学助理教授

嘉宾简介:孔令鹏,卡内基梅隆大学博士,香港大学计算机科学系助理教授,香港大学NLP实验室联合主管。在加入港大前,他于2017年至2020年在谷歌DeepMind担任研究科学家。他的研究通过设计利用语言结构的表示学习算法来解决自然语言处理(NLP)中的核心问题。他的工作处于深度学习和结构化预测的交叉点,应用重点是句法解析、语音识别、社交媒体分析和机器翻译,在各类高水平国际学术刊物上发表论文逾60篇。个人主页:https://ikekonglp.github.io/


二、主持人:

冯夏冲

香港大学博士后

嘉宾简介:冯夏冲,香港大学博士后,哈尔滨工业大学博士。在CCF-A和中科院1区等会议期刊发表多篇论文,曾获博士生国家奖学金、CCL 2021最佳英文长文奖。个人主页:https://xcfeng.net/。


李磊

香港大学博士生

嘉宾简介:李磊,香港大学计算机科学系博士研究生,师从孔令鹏教授和刘琦教授。其研究聚焦于多模态大语言模型与大模型可解释性分析等领域,迄今已在顶级会议与期刊(包括ICLR、CVPR、ACL、EMNLP及TASLP)发表多篇论文,其中一项研究荣获EMNLP 2023年度最佳长文奖。个人主页:https://lilei-nlp.github.io/

三、分享嘉宾:

陶熙佳

香港大学博士生

嘉宾简介:陶熙佳,香港大学计算机科学系博士研究生,师从孔令鹏教授,研究兴趣包括强化学习,多模态大语言模型和可解释性分析等领域。个人主页:https://xijia-tao.github.io/

报告题目:一张图片攻陷视觉大模型多模态的安全性新挑战

报告简介:随着视觉模态被广泛集成到大语言模型中,新模态引发的安全隐患逐渐显现。我们提出了一种基于数据投毒的攻击方法 ImgTrojan,通过在训练过程中植入图片形式的特洛伊木马,导致文本与视觉模态的错误对齐。相比文本木马,图片木马更具隐蔽性,在推理阶段更难被察觉。报告还将探讨多模态模型中木马的生成机制,并结合以往关于大模型可解释性的研究展开讨论。我们希望本次分享能够加深社区对多模态大语言模型安全性的理解


谢天宝

香港大学博士生

嘉宾简介:谢天宝,香港大学博士三年级在读,由余涛(主要)和孔令鹏老师指导。获香港政府博士奖学金和香港大学校长奖学金资助。他在人工智能顶级会议如ICLR, NeurIPS,  EMNLP等发表多篇论文。他的主要研究兴趣在于人工智能和自然语言处理,特别专注于开发大规模神经符号人工智能系统和自主智能体。个人主页:https://tianbaoxie.com

报告题目:OSWorld:面向真实计算机环境的开放式任务多模态智能体

报告简介:OSWorld 是一个可扩展的并行环境,用于构建和评估自主数字智能体在各类真实世界计算机任务中的表现。OSWorld支持包括 Ubuntu、Windows 和 macOS 在内的多个操作系统,能够在涉及网络和桌面应用程序的交互式环境中对智能体进行全面的、基于执行的训练和评估。该基准测试包含 369 个来自实际应用场景的任务。测试结果显示,即使是最先进的多模态模型智能体也仅能达到 22% 的成功率,而人类的成功率则达到 72.36%,这凸显出了当前智能体的局限性。该平台为推进多模态智能体的开发提供了关键性的见解。所有相关资源均已开放,以促进研究者在这一极具前景的领域进行深入探索。


魏源成

华南理工大学本科生


嘉宾简介:魏源成,华南理工大学软件学院本科生。主要研究方向为多模态大语言模型。

报告题目:VL-RewardBench:通往多模态self-play的试金石

报告简介:随着模型能力的提升,合成数据与 Self-Play 已成为 LLMs 和 VLMs 后训练的关键环节,其中 LLMs-as-a-Judge 作为数据筛选的重要范式备受关注。随着 LLM 迈向全模态,VLM-as-a-Judge 也将在多模态领域发挥重要作用,但其评估能力仍面临挑战。为此,我们构建了 VL-RewardBench 评估当前 VLMs 在此任务领域上的表现,并探讨如何提升其能力。本次分享将围绕VL-RewardBench进行介绍,并希望能给社区带来一些insight,一起推动VL-RMs的发展和LVLMs的数据合成及评估。


龚姗三

香港大学博士生

嘉宾简介:龚珊三,香港大学计算机科学系博士研究生,师从孔令鹏教授,研究方向涵盖扩散语言模型和长文本语言模型等领域。她在顶级会议如ACL、EMNLP、ICLR等发表多篇论文,相关工作曾获ACL 2024年度杰出论文奖。个人主页:https://summmeer.github.io/

报告题目:扩散语言模型的非自回归推理

报告简介:随着大语言模型的快速发展,传统自回归(AR)模型在推理任务上的优势已被广泛验证。然而,扩散语言模型(Diffusion LM)作为一种非自回归生成范式,展现出了独特的潜力,尤其在推理任务中具有更强的信息整合能力。本次报告将介绍扩散语言模型在推理领域的最新进展,包括其在链式思维推理(DoT)、复杂规划任务(如24点、数独)中的应用,以及在7B参数规模DiffuLLaMA在各类任务下的表现。研究表明,扩散模型由于其双向信息处理能力,在特定推理任务上优于AR模型。本次分享将围绕扩散模型的架构、任务适应性及其未来发展方向展开讨论,期待与社区共同推动该领域的研究进展。


谢知晖

香港大学博士生


嘉宾简介:谢知晖,香港大学计算机科学系博士研究生,师从孔令鹏教授(主要导师)及刘琦教授,研究方向涵盖大语言模型对齐、强化学习、多模态模型等领域。他在顶级会议如ICLR、NeurIPSICML等发表多篇论文。个人主页:https://zhxie.site/

报告题目:当奖励成为漏洞:从对齐本质出发自动“越狱”大语言模型

报告简介:随着大语言模型的广泛应用,其安全性和可靠性问题日益突出,特别是”越狱攻击”(jailbreaking)现象引起了研究界的广泛关注。在本次分享中,我们将介绍我们发表于ICLR 2025的研究成果。该研究首次从”奖励错误规约”(Reward Misspecification)的角度解释了为什么大语言模型会存在越狱漏洞。我们提出了ReGap度量方法来量化奖励错配程度,并基于此构建了ReMiss自动化红队系统,能够高效生成对抗性提示,探索模型的安全漏洞。ReMiss在AdvBench基准测试上显著优于现有方法,不仅攻击成功率高,还能保持生成提示的可读性。更重要的是,我们的方法能自动发现多样化的攻击模式(如翻译、续写、上下文示例等),并且对包括GPT-4o在内的闭源模型展现出极强的攻击迁移能力。通过这次分享,我们希望为大语言模型安全对齐研究提供新的理论视角和实用工具,推动构建更安全可靠的人工智能系统。



李沁桐

香港大学博士生


嘉宾简介:李沁桐,香港大学计算机科学系博士研究生,师从孔令鹏教授(主要)和Ben Kao教授指导,研究方向涵盖大语言模型推理,评估和数据合成等领域。她在人工智能顶级会议如ACL、ICLREMNLP等发表多篇论文。个人主页:https://qtli.github.io/

报告题目:大语言模型的自适应优化:评估驱动的迭代增强

报告简介:大语言模型在数学推理基准测试中展现出惊人的表现,但其真实推理能力仍存在争议。本次报告将从三个维度深入探讨这一问题:首先,我们通过构建GSM-Plus数据集,系统性地评估了大语言模型在面对数学问题变体时的鲁棒性,发现即便是在相似问题上,模型表现也可能出现显著波动。其次,针对评测成本高昂的问题,我们深入分析了以大语言模型作为评测者的可行性,揭示了其在不同评测标准下的优劣势,并提出了结合人类专家的混合评测框架。最后,我们提出ReverseGen方法,通过自动发现模型的薄弱环节并据此优化,实现了模型能力的迭代提升。这一系列工作为构建更可靠、更强大的大语言模型提供了新的思路和方法论支持。我们期待通过这次分享,与社区一起推动大语言模型领域的研究和持续进步。



4

直播平台


视频号



B站


5

会议报名


会议报名可以直接扫描下方二维码进入交流群。会议的观看地址等信息都会在群里通知。已经加入MLNLP交流群的同学请不用重复添加

扫描二维码进入MLNLP交流群


关于我们

MLNLP 社区是由国内外机器学习与自然语言处理学者联合构建的民间学术社区,目前已经发展为国内外知名的机器学习与自然语言处理社区,旨在促进机器学习,自然语言处理学术界、产业界和广大爱好者之间的进步。
社区可以为相关从业者的深造、就业及研究等方面提供开放交流平台。欢迎大家关注和加入我们。

(文:机器学习算法与自然语言处理)

欢迎分享

发表评论