特邀讲者:车万翔,哈尔滨工业大学计算学部长聘教授/博士生导师,人工智能研究院副院长,国家级青年人才,斯坦福大学访问学者。
演讲题目:迈向推理时代——长思维链机理及应用
特邀讲者:雷文强,四川大学教授、博士生导师,国家级青年人才。
演讲题目:大模型智能体进展与思考
特邀讲者:桂韬,复旦大学副研究员。
演讲题目:推理智能体
特邀讲者:周浩,南京大学博士,清华大学智能产业研究院副研究员。
演讲题目:MemAgent: Reshaping Long-Context LLM with Multi-Conv RL based Memory Agent
报告时间:2025年7月12日(星期六)9:00-12:00
报告地点:厦门大学翔安校区西部片区4号楼106
报告1题目:迈向推理时代——长思维链机理及应用
报告摘要:推理能力已经成为评估并提升模型智能水平的核心指标和重要途径。长思维链(Long Chain-of-Thought, Long CoT)作为推理大模型(RLLMs)处理复杂任务时的关键技术,能够显著增强模型的推理深度与广度。通过实现深度的逻辑推理、积极的探索行为和有效的反思机制,长思维链赋予模型解决更加复杂、多样化问题的能力。本报告将深入解析长思维链的基本原理及应用实践。具体内容包括系统地阐述长思维链的核心技术与机制,重点涵盖深度推理的逻辑形式与学习框架、反思能力的反馈与纠错机制、探索能力的扩展机制,以及内部与外部探索框架等关键内容。此外,报告还将详细分析长思维链中产生思维链边界与测试时扩展(Test Time Scaling)现象的根本原因。最后,报告将展望长思维链的未来发展趋势,特别关注多模态长思维链等前沿方向,以期为人工智能领域的研究者与实践者提供一定的参考与启示。
报告人简介:车万翔,哈尔滨工业大学计算学部长聘教授/博士生导师,人工智能研究院副院长,国家级青年人才,斯坦福大学访问学者。主要研究领域为自然语言处理、大语言模型。现任中国中文信息学会理事、计算语言学专业委员会副主任兼秘书长;国际计算语言学学会亚太分会(AACL)执委兼秘书长;国际顶级会议ACL 2025程序委员会共同主席。承担国家自然科学基金重点项目和专项项目、2030“新一代人工智能”重大项目课题等多项科研项目。著有《自然语言处理:基于预训练模型的方法》一书。曾获AAAI 2013最佳论文提名奖。负责研发的语言技术平台(LTP)已授权给百度、腾讯、华为等公司付费使用。2024年获中国人工智能学会吴文俊人工智能科技进步一等奖(排名第1),2020年获黑龙江省青年科技奖,2016年获黑龙江省科技进步一等奖(排名第2)。入选斯坦福大学和爱思唯尔发布的2024年度“全球前2%顶尖科学家”榜单。
报告2题目:大模型智能体进展与思考
报告摘要:大模型为Agent的能力发展带来了前所未有的机遇,智能体也被誉为大模型落地的一个非常有希望的场景。本报告拟从知识推理与交互两大核心能力展开,分别分析大模型在两方面能力的进展,并且提出一些可以进步的方向。
报告人简介:雷文强,四川大学教授、博士生导师,国家级青年人才。博士毕业于新加坡国立大学,主要从事自然语言处理,信息检索,大语言模型相关研究。发表中国计算机学会A类长文(CCF-A)等顶会顶刊论文数十篇,多篇一作论文短时间内引用过百,成为国际上该领域主流参考文献。获得国际多媒体最高级会议ACM 2020最佳论文奖与自然语言处理最高级会议ACL 2024“领域主席奖”。与荷兰皇家科学院院士Maarten de Rijke教授等世界一流学者联袂在国际顶级会议SIGIR2020和Recsys2021上作关于“对话式推荐系统”三小时Tutorial,其中SIGIR2020 tutorial单场听众超过1600次,为当场听众最多。担任各大顶级国际会议ACL,KDD,AAAI,IJCAI,WSDM,EMNLP等的(高级)程序委员会委员,担任自然语言处理各大顶会如ACL、EMNLP、COLING领域主席,担任新加坡全国自然语言处理会议SSNLP2021的程序委员会主席。担任重要期刊ACM Trans. on Web的客座编委,担任国内外顶级期刊比如IEEE Trans. on IEEE Trans. on Knowledge and Data Engineering, ACM Trans. on Information System,《中国科学:信息科学》等审稿人。主持国家自然科学基金面上及以上项目多项,担任多项国家重要项目的评审。积极推进前沿科学研究的实际落地,其研发的技术在政府机构、大型央国企、头部互联网企业等有广泛应用。
报告3题目: 推理智能体
报告摘要:几十年来,人类一直在寻求创造接近或超越人类智力的人工智能(AI),智能体被誉为实现这一目标的一条有希望的道路。大语言模型(LLM)越来越被视为通用人工智能(AGI)发展的潜在催化剂,激发了创建多功能智能体的希望。本次报告将介绍基于大模型的智能体的综合框架,讨论如何让智能体具备更强的推理及泛化能力,并提供对此类智能体未来发展的见解。
报告人简介:桂韬,复旦大学副研究员。研究领域为预训练模型、类人对齐和智能体交互。在高水平国际学术期刊和会议上发表了50余篇论文,曾获钱伟长中文信息处理科学技术奖一等奖、NeurIPS2023大模型对齐 Track最佳论文奖、上海市启明星计划。
报告4题目:MemAgent: Reshaping Long-Context LLM with Multi-Conv RL based Memory Agent
报告摘要:Despite improvements by length extrapolation, efficient attention and memory modules, handling infinitely long documents with linear complexity without performance degradation during extrapolation remains the ultimate challenge in long-text processing. We directly optimize for long-text tasks in an end-to-end fashion and introduce a novel agent workflow, MemAgent, which reads text in segments and updates the memory using an overwrite strategy. We extend the DAPO algorithm to facilitate training via independent-context multi-conversation generation. MemAgent has demonstrated superb long-context capabilities, being able to extrapolate from an 8K context trained on 32K text to a 3.5M QA task with performance loss < 5% and achieves 95%+ in 512K RULER test.
报告人简介:周浩,南京大学博士,清华大学智能产业研究院副研究员。研究方向是面向复杂符号系统的生成式人工智能,主要的应用包括超大规模语言模型,分子生成,蛋白质设计等。曾任字节跳动研究科学家和副总监,领导搭建了字节跳动的文本生成中台和AI辅助药物设计两个方向的研发团队。他长期担任ICML、NeurIPS,ICLR,ACL等人工智能顶级会议的领域主席,在人工智能顶级国际会议上发表论文80余篇。他作为中心主任牵头清华AIR-字节跳动可拓展大模型智能联合研究中心,研究工业级的下一代大语言模型。曾获2019年度中国人工智能学会优秀博士论文奖、自然语言处理领域顶级国际会议ACL 2021最佳论文奖 (1/3350)、中国计算机学会NLPCC青年新锐学者奖、北京市科技新星等荣誉。
邀请人:厦门大学信息学院 苏劲松教授