info_public@xmu.edu.cn +86 592 2580110
【海韵讲座】2025年第08期 基于预训练语言模型的零训练实体对齐框架
发布时间:2025年04月01日 21:33 点击:

报告题目:基于预训练语言模型的零训练实体对齐框架


主讲人:霍南


报告时间:2025年4月2日星期三午12:00-13:00


报告地点:厦门大学信息学院5号楼209会议室


报告摘要:

    实体对齐是知识图谱研究中的核心任务,旨在识别并对齐多个知识图谱中表示同一现实世界实体的不同节点。当前主流方法虽已取得较高的准确率,但大多依赖大量人工标注与模型训练,缺乏可扩展性,且在结构信息利用方面存在不足。本报告将介绍一项最新研究成果:ZeroEA,利用预训练语言模型强大的语义理解能力,在不进行额外训练的情况下,通过高效算法实现对实体语义与结构的深度建模。在五个主流跨语言与大规模数据集上的实验证明,ZeroEA在零监督环境下依然优于所有已有监督与自监督方法,并在下游任务如Text-to-SQL中显著提升了性能。


Entity alignment (EA) plays a fundamental role in knowledge graph (KG) research, aiming to identify equivalent entities across different KGs. While state-of-the-art EA models often rely on heavy training and manual annotation, they still struggle with scalability and incorporating structural knowledge. This talk presents ZeroEA, a novel zero-training EA framework that leverages pre-trained language models (PLMs) to encode both semantic and structural information without any fine-tuning. ZeroEA enables PLMs to understand KG topologies, and designs a motif-based neighborhood filter to eliminate noisy neighbors and highlight high-order structural patterns. ZeroEA can benefit downstream tasks like Text-to-SQL.


报告人简介: 

   霍南,香港大学计算机科学系博士四年级研究生,他专注于大规模数据分析、知识图谱构建与自然语言处理等交叉研究方向。在攻读博士期间,他曾与TCL Research HK、微软亚洲研究院、Google Cloud AI Research等多家知名科研机构开展联合研究工作。研究成果发表于包括VLDB、NeurIPS、ACL等CCF A类国际顶级会议共10篇,谷歌学术引用量超过700次。并担任ARR、VLDB、SIGMOD等会议审稿人。


邀请人:计算机科学与技术系 李晓东助理教授



主讲人 霍南 主持人
时间 2025-04-02 12:00:00 报告题目
首作者 People
职称 联系电话
邮箱 研究方向
主讲人简介 霍南,香港大学计算机科学系博士四年级研究生,他专注于大规模数据分析、知识图谱构建与自然语言处理等交叉研究方向。在攻读博士期间,他曾与TCL Research HK、微软亚洲研究院、Google Cloud AI Research等多家知名科研机构开展联合研究工作。研究成果发表于包括VLDB、NeurIPS、ACL等CCF A类国际顶级会议共10篇,谷歌学术引用量超过700次。并担任ARR、VLDB、SIGMOD等会议审稿人。 地点 厦门大学翔安校区西部片区5号楼209会议室
办公室 研究院