学术报道:Neural Document Modeling and Summarization

20191029日下午130,刘洋博士应邀在仙林新北区启明楼202会议室作了题为Neural Document Modeling and Summarization的学术报告。我院30余名师生参加了此次报告会。

刘博士现于英国爱丁堡大学全奖攻读自然语言处理方向博士学位,硕土就读于北京大学计算语言学研究所。其曾在ACLEMNLPAAAI等计算机顶级会议上发表论文10余篇,同时还是ACLNAACLEMNLPEACL等会议的审稿人,并于2018年获得谷歌博士奖学金。

首先,刘博士对自然语言做了总体介绍,自然语言研究能实现人与计算机之间进行有效通信的各种理论和方法,是计算机科学领域与人工智能领域中的一个重要方向。自然语言具有递归性、独特性、交互性等特点,但在实际运用中遇到了很多问题。

接着,刘博士以自己研究的自动提取摘要的项目为例,带领大家深入理解了自然语言的应用和发展前景。其项目旨在建立一个多文档摘要的层次模型,从多篇文章中将重要信息提取出来,并自主形成一段连续简短的有效信息,从而极大程度上提高人们的阅读效率。

BERT作为提取摘要模型的代表目前取得了不错的成绩,通过一定的自我修正程序,其实验数据的性能已经超过了Pointer-GeneratorPrevious SOTA等摘要模型。但BERT还存在着报告数据错误、模型自主捏造事实等缺点等待克服。

最后,报告进行到了互动交流环节。参会的老师和刘博士关于摘要提取功能的评判标准以及提取的细节问题进行了激烈地讨论,同学们踊跃提问,纷纷对人工智能前景和出国留学等问题表现出极大的兴趣。(谢非供稿)

XML 地图 | Sitemap 地图