报告题目:基于预训练语言模型的零训练实体对齐框架
主讲人:霍南
报告时间:2025年4月2日星期三下午12:00-13:00
报告地点:厦门大学信息学院5号楼209会议室
报告摘要:
实体对齐是知识图谱研究中的核心任务,旨在识别并对齐多个知识图谱中表示同一现实世界实体的不同节点。当前主流方法虽已取得较高的准确率,但大多依赖大量人工标注与模型训练,缺乏可扩展性,且在结构信息利用方面存在不足。本报告将介绍一项最新研究成果:ZeroEA,利用预训练语言模型强大的语义理解能力,在不进行额外训练的情况下,通过高效算法实现对实体语义与结构的深度建模。在五个主流跨语言与大规模数据集上的实验证明,ZeroEA在零监督环境下依然优于所有已有监督与自监督方法,并在下游任务如Text-to-SQL中显著提升了性能。
Entity alignment (EA) plays a fundamental role in knowledge graph (KG) research, aiming to identify equivalent entities across different KGs. While state-of-the-art EA models often rely on heavy training and manual annotation, they still struggle with scalability and incorporating structural knowledge. This talk presents ZeroEA, a novel zero-training EA framework that leverages pre-trained language models (PLMs) to encode both semantic and structural information without any fine-tuning. ZeroEA enables PLMs to understand KG topologies, and designs a motif-based neighborhood filter to eliminate noisy neighbors and highlight high-order structural patterns. ZeroEA can benefit downstream tasks like Text-to-SQL.
报告人简介:
霍南,香港大学计算机科学系博士四年级研究生,他专注于大规模数据分析、知识图谱构建与自然语言处理等交叉研究方向。在攻读博士期间,他曾与TCL Research HK、微软亚洲研究院、Google Cloud AI Research等多家知名科研机构开展联合研究工作。研究成果发表于包括VLDB、NeurIPS、ACL等CCF A类国际顶级会议共10篇,谷歌学术引用量超过700次。并担任ARR、VLDB、SIGMOD等会议审稿人。
邀请人:计算机科学与技术系 李晓东助理教授