早鸟注册倒计时2天 YSSNLP2025“大模型认知建模”分论坛详情公布


MLNLP社区是国内外知名的机器学习与自然语言处理社区,受众覆盖国内外NLP硕博生、高校老师以及企业研究人员。
社区的愿景是促进国内外自然语言处理,机器学习学术界、产业界和广大爱好者之间的交流和进步,特别是初学者同学们的进步。
来源 | 中国中文信息学会青年工作委员会


YSSNLP2025将于2025年6月13-16日在辽宁省大连市召开,由大连理工大学承办。本次会议的主题是“大模型拓界语言智能新境,连青年共筑学术创新生态”,其宗旨是面向国家需要,紧跟国际发展动态,探讨青年学者如何把握时代机遇,开展特色研究工作。为更好地促进自然语言处理领域国内外青年同行的交流,本届研讨会特别邀请NLP领域的知名专家和青年学者,围绕自然语言处理的热点、难点问题展开讨论,为与会代表提供宝贵的交流平台。本届研讨会为期四天,竭诚欢迎学术界、企业界和关心NLP发展的朋友参与本次会议!YSSNLP的目标为搭建国内智能信息处理领域的学术研究与交流平台,培养一批高水平的人工智能人才。愿青年同道,携手共进,为自然语言处理领域做出卓越贡献!


时间:2025年6月13-16日

地点:大连·香洲花园酒店

地址:大连市西岗区长春路171号

会议官网:https://yssnlp2025.com/

会议注册:(早鸟截止日期5.25)

https://yssnlp2025.com/register/



“大模型认知建模”分论坛日程(6.15)

















































15:50-16:10

  
语义的对齐和对不齐:模型差异、个体差异与概念差异
(蔡清 华东师范大学)

16:10-16:30


学龄前儿童概念范畴结构的形成机制
(郁曦 北京师范大学)

16:30-16:50


脑电大模型与动态视觉感知解码
(郑伟龙 上海交通大学)
 
16:50-17:10


基于皮层-海马环路的类脑持续学习
(石倩倩 清华大学)

17:10-17:30


基于脑信号的语义解码与交互系统设计
(叶子逸 清华大学)


“大模型认知建模”分论坛主持人:王少楠(中科院自动化所)

主持人简介:王少楠,中科院自动化所模式识别国家重点实验室副研究员,纽约大学访问学者。研究方向为自然语言理解和语言的神经认知基础。在国际重要会议和期刊发表学术论文30余篇,出版《文本表示方法》专著一本,参与国家自然科学重点基金项目“基于自然语言理解的语言认知和计算模型”和科技创新2030脑科学与类脑研究重大项目,主持青年科学基金项目“语言表征机理及受脑启发的文本表示模型研究”。获中国科学院院长奖学金特别奖、中国科学院优秀博士论文、中文信息学会优秀博士论文、中科院脑科学与智能技术卓越创新中心青年人才奖励基金等,入选中国科协青年人才托举工程和中国科学院青年创新促进会会员。








报告嘉宾:蔡清(华东师范大学)

报告题目:语义的对齐和对不齐:模型差异、个体差异和与概念差异

报告摘要:

语言是人类理解世界的核心工具。近年来,将大数据与神经影像学相结合的研究为我们提供了新的视角,并帮助我们更深入地理解大脑中语言的多维组织。在这个报告中,我将介绍 SWOW‑ZH 中文词汇联想数据集,并举例介绍它如何支持基于大规模人类数据的模型与自然语言处理模型在语义加工中的对比,以强调语义的多模态特性以及大规模人类实验数据的价值。我们还关注个体差异如何影响语言加工中的神经活动对齐。我们之前的研究发现,双语者在语言加工中的跨主体神经同步性会受到熟练度的调节。在最近针对母语者的研究中,我们发现阅读经验的相似性会影响文本阅读过程中的神经模式对齐,强调了经验与认知之间的联系。最后,我将简要讨论概念自身的变异性及其与个体差异的关系,以及它们如何影响语言加工以及更广泛的认知过程。

嘉宾简介:

蔡清,华东师大心理与认知科学学院教授,博导;脑科学与教育创新研究院副院长;华师大儿童脑成像中心主任。主要关注语言和高级认知能力的发展和神经机制。目前担任中国心理学会语言心理学专业委员会副主任委员、中国神经科学学会认知神经生物学分会委员、Frontiers in Language Processing期刊专业主编等


报告嘉宾:郁曦(北京师范大学

报告题目:学龄前儿童概念范畴结构的形成机制

报告摘要:

纷繁复杂的物体概念知识在人脑中是按照语义范畴(如动物、工具等)存储表征的,这种范畴化认知是人类高效识别和使用各类物体的基础。人类从出生起通过与外界环境互动,在1岁左右开始建立客体概念,并随着经验的积累,在幼儿园阶段(3-6岁)逐渐发展出层级化的语义范畴结构(如基本层-上位层-下位层)。这种结构帮助儿童通过范畴内特征推理(如形状-功能映射)高效学习新客体并灵活应用知识。以工具为例,当儿童将新异客体归类为工具时,能快速提取其可操作性特征,并基于已掌握的工具知识(如长柄-敲击功能关联)推断潜在用途。然而,语义范畴的形成机制仍存在争议,特别是先天认知倾向与经验统计学习的交互作用尚需阐明。本研究聚焦范畴化能力发展的关键期(3-6岁),通过系统测量儿童在语义加工任务中的行为表现,刻画不同范畴概念的发展轨迹,并结合多模态数据建模方法,揭示分类层级结构形成的认知计算机制。

嘉宾简介:

郁曦,北京师范大学心理学部副教授,博导,目前主要从事学龄前儿童(0-6岁)语言发展的认知神经机制的研究,利用各种成像技术(fMRI/MRI/DTI)和认知行为实验揭示学龄前儿童各项语言能力(如语音发展、概念习得)的学习机制和脑基础。同时,致力于发展汉语儿童的语言发展评估测验,以及开发面向发展性语言障碍儿童的早期诊断和干预项目。相关成果发表在Nature Communications, JAMA Network Open, Child Development Perspectives, Developmental Cognitive Neuroscience等国际权威综合和心理发展领域期刊发表实践和综述文章。


报告嘉宾:郑伟龙(上海交通大学

报告题目:脑电大模型与动态视觉感知解码

报告摘要:

目前基于脑电信号的深度学习模型通常是为特定数据集和脑机接口应用而设计的,这限制了模型的规模,从而削弱了模型的表征能力和泛化性。近些年来,脑电基座大模型越来越受到广泛关注,其研究的目的是开发脑电时空预训练模型,使其突破不同任务类型脑电数据集的限制,通过自监督预训练获得脑电信号的通用表征能力,然后在不同的下游任务上对模型进行微调。另外,我们日常生活中的视觉体验受动态变化主导。从大脑活动中解码此类动态视觉信息可以增强对大脑视觉处理系统的理解。然而,先前的研究主要侧重于重建静态视觉刺激。本报告将介绍我们从脑电解码动态视觉感知工作。我们开发了视觉解码数据集,记录了 20 位受试者在观看 1400 个包含 40 个概念的动态视频片段时的信号。我们提出了EEG2Video用于从脑电信号中重建视频,更好地将动态视觉信息与脑信号对齐。

嘉宾简介:

郑伟龙,上海交通大学计算机学院副教授,博士生导师。入选国家级高层次海外青年人才和上海市海外高层次青年人才。麻省理工学院和哈佛大学医学院麻省总医院博士后。长期从事脑认知与智能、情感计算、脑机交互、类脑计算等研究。在国际高水平会议和期刊发表研究论文120余篇, Google学术引用9800余次,单篇被引超两千次。荣获IEEE Transactions on Autonomous Mental Development最佳论文奖、IEEE Transactions on Affective Computing最佳论文奖和ACM Multimedia Top Paper奖、中国人工智能学会优秀博士学位论文奖、吴文俊人工智能自然科学一等奖,入选上海市浦江人才、小米青年学者、微软亚洲研究院铸星计划、2023和2024年全球前2%科学家年度影响力榜单。目前担任IEEE Transactions on Affective Computing编委。


报告嘉宾:石倩倩(清华大学)

报告题目:基于皮层-海马环路的类脑持续学习

报告摘要:

生物系统在终身学习方面表现出卓越能力,而现代人工系统却常因“灾难性遗忘”而难以实现持续学习。这一瓶颈主要源于人工神经网络在整合新旧知识时难以实现有效平衡。受大脑皮层-海马环路中“双重记忆表征”机制的启发——该机制能够分别编码具体信息与泛化信息——我们提出了一种新颖的类脑混合模型:皮层-海马异构网络(corticohippocampal hybrid neural network, CH-HNN)。该模型结合脉冲神经网络(Spiking Neural Networks, SNNs)与人工神经网络(Artificial Neural Networks, ANNs),模拟大脑在记忆管理中的策略。通过同时利用特化与泛化的表征,该模型有效缓解了灾难性遗忘,使模型能够在不断适应新任务的同时保留既有知识。大量实验表明,该混合模型在类别增量学习和任务增量学习中均优于传统模型,展现出更强的泛化能力。此外,我们在架构中引入皮层-海马的前馈与反馈回路,进一步优化了知识调控机制,提升了学习过程的效率和稳定性。该异构系统不仅在复杂环境中表现出更高的鲁棒性和适应性,同时具备较低的能耗,为可持续人工智能的发展提供了全新路径。

嘉宾简介:

石倩倩,清华大学精密仪器系类脑计算中心博士后,长期从事神经科学与人工智能交叉研究。研究方向涵盖神经数据建模、类脑多模态识别算法,目前聚焦于大脑启发的持续学习机制与多模态智能算法的研究。相关成果以第一作者发表在 Nature Communications、Pattern Recognition、Cell Reports 等国际顶尖期刊。


报告嘉宾:叶子逸(清华大学)

报告题目:基于脑信号的语义解码与交互系统设计

报告摘要:

当前,基于脑信号的语义解码技术和相关设备尚未达到能广泛应用于协助人与信息系统交互的成熟水平。从低信噪比的脑信号中提取语义信息并将其高效应用于信息系统仍面临巨大挑战。针对这一问题,我们提出了两种方法来应对开放式语义解码场景和基于反馈的语义解码场景。在开放式语义解码场景中,我们提出了BrainLLM,该方法将大脑记录中解码的语义表征直接作为大语言模型的输入,并结合上下文文本生成语言。研究表明,BrainLLM在处理高困惑度解码内容时表现更为有效;且随着语言模型能力的提升,脑信号带来的性能增益也随之增加。在基于反馈的语义解码场景中,我们提出了一种脑拓扑网络,用于理解用户对反馈内容的满意度,并设计了一种利用从脑信号中采集的反馈信息来进行基于语义的相关性反馈的方法。我们在闭环系统中验证了该方法的效果,初步探索了其在信息系统中的应用潜力。

嘉宾简介:

叶子逸,清华大学计算机系博士生。主要研究方向包括信息检索、人工智能、脑机交互等,其代表性研究成果主要有基于脑机接口的信息检索系统原型构建、可解释的人类偏好对齐模型构建等。在国际高水平会议和期刊发表或录用研究论文十余篇,其中以第一作者在Nature Communications Biology, ICLR, TOIS, SIGIR, MM, The Web Conference等国际顶尖会议和期刊(SCI一区或CCF-A类)上总计发表长文7篇。曾获国家奖学金、清华大学综合优秀奖学金、CCIR最佳论文提名等荣誉。








分论坛主席:

田植良(国防科技大学)、王少楠(中国科学院自动化研究所)

特别鸣谢

首席赞助商

主赞助商

金牌赞助商

     


关于我们

MLNLP 社区是由国内外机器学习与自然语言处理学者联合构建的民间学术社区,目前已经发展为国内外知名的机器学习与自然语言处理社区,旨在促进机器学习,自然语言处理学术界、产业界和广大爱好者之间的进步。
社区可以为相关从业者的深造、就业及研究等方面提供开放交流平台。欢迎大家关注和加入我们。

(文:机器学习算法与自然语言处理)

发表评论

×

下载每时AI手机APP

 

和大家一起交流AI最新资讯!

立即前往