欢迎来到天天文库
浏览记录
ID:35008206
大小:2.22 MB
页数:59页
时间:2019-03-16
《基于神经网络的抽取式摘要系统的研究与实现.pdf》由会员上传分享,免费在线阅读,更多相关内容在学术论文-天天文库。
1、嗨!thesis硕士学位论文基于神经网络的抽取式摘要系统的研究与实现RESEARCHONNEURAL-NETWORKSBASEDEXTRACTIVESUMMARIZATIONSYSTEM赵怀鹏哈尔滨工业大学2018年6月国内图书分类号:TP391.1学校代码:10213国际图书分类号:681.37密级:公开工学硕士学位论文基于神经网络的抽取式摘要系统的研究与实现硕士研究生:赵怀鹏导师:车万翔教授申请学位:工学硕士学科:计算机科学与技术所在单位:计算机科学与技术学院答辩日期:2018年6月授予学位单位:哈尔
2、滨工业大学ClassifiedIndex:TP391.1U.D.C:681.37DissertationfortheMaster’sDegreeinEngineeringRESEARCHONNEURAL-NETWORKSBASEDEXTRACTIVESUMMARIZATIONSYSTEMCandidate:ZhaoHuaipengSupervisor:Prof.CheWanxiangAcademicDegreeAppliedfor:MasterofEngineeringSpecialty:ComputerS
3、cienceandTechnologyAffiliation:SchoolofComputerScienceandTechnologyDateofDefence:June,2018Degree-Conferring-Institution:HarbinInstituteofTechnology哈尔滨工业大学工学硕士学位论文摘要文本摘要就是一个高度概括原文重要信息的过程。摘要算法大致可以分为两类:抽取式摘要和生成式摘要。抽取式摘要的目的是从原文中选择一些重要的短语或句子来组成摘要。生成式摘要是利用算法生成文本的
4、另一种表达,所用到的词汇表述并不一定来自于原文。自动文本摘要能够帮助很多下游任务(例如新闻摘要,社会媒体等)。近些年一些基于神经网络的工作大都将抽取式摘要任务当成序列标注来建模。这就存在训练和测试的不一致性问题:训练时当成分类任务,测试时当成排序任务。我们提出一种基于神经网络的回归模型,让模型在训练的时候就直接拟合ROUGE得到其分数用来做排序。我们的回归模型在短文本摘要的时候效果很好,但是在生成长摘要的时候效果没有明显收益。这主要因为自动文本摘要系统经常会生成带有冗余的摘要。考虑摘要中的如下两个句子:“
5、衬衫的价格是多少”和“衬衫卖多少钱”。这两句话虽然不同但表达了相同的含义,因此具有冗余信息。我们对文本中存在大量重复观点的现象做了经验性分析。现有的大多数抽取式摘要系统通常独立建模句子打分和冗余惩罚。这些模型首先根据句子的重要程度打分,然后在选择句子的过程中考虑惩罚冗余信息。我们提出一种可以同时建模句子打分和冗余惩罚的排序模型。我们在给句子打分的时候就考虑了对冗余信息的惩罚。我们的模型利用神经网络来表示句子和文档,不需要任何手工设计的语言特征。实验结果证明我们的模型在DailyMail数据集上超过了目前所
6、有的最好的抽取式摘要模型达到的结果。关键词:神经网络;抽取式摘要;排序模型;冗余-I-哈尔滨工业大学工学硕士学位论文AbstractAutomatictextsummarizationistheprocessofgeneratingaconciserepresentationoforiginaltextwhileretainingthecoreinformation.Summarizationalgorithmscanbebroadlyclassifiedintotwocategories:extracti
7、veandabstractive.Extractiveapproachesaimtoselectsalientwords,phrasesorsentencesfromtheoriginaltextwhiletheabstractivemethodsfocusonrewritingthecontentwithouttheconstraintofreusingwordsorphrasesfromtheoriginaltext.Automaticsummarizationcanaidmanydownstream
8、applications(e.g.,newsdigests,socialmedia).Recently,neuralnetworksbaseddata-drivenapproacheshavebecomepopularformodelingtheextractivesummarizationtask.Afewrecentapproachesconceptualizeextractivesummarizationasaseque
此文档下载收益归作者所有