Volume 53 Issue 2
Apr.  2024
Article Contents

ZHU Qilin, WANG Yu, XU Jian. Extractive Document Summarization Model Based on Heterogeneous Graph and Keywords[J]. Journal of University of Electronic Science and Technology of China, 2024, 53(2): 259-270. doi: 10.12178/1001-0548.2023019
Citation: ZHU Qilin, WANG Yu, XU Jian. Extractive Document Summarization Model Based on Heterogeneous Graph and Keywords[J]. Journal of University of Electronic Science and Technology of China, 2024, 53(2): 259-270. doi: 10.12178/1001-0548.2023019

Extractive Document Summarization Model Based on Heterogeneous Graph and Keywords

doi: 10.12178/1001-0548.2023019
  • Received Date: 2023-01-13
  • Rev Recd Date: 2023-06-17
  • Available Online: 2024-04-01
  • Publish Date: 2024-03-30
  • Extractive document summarization uses certain strategies to select some sentences from lengthy texts to form a summary, whose key is to use as much semantic and structural information of the text as possible. In order to better mine such information and then use it to guide the summarization, an extractive document summarization model based on heterogeneous graph and keywords (HGKSum) is proposed, which models the text as a heterogeneous graph composed of sentence nodes and word nodes. The model uses the graph attention networks to learn the features of the nodes in the graph. The multi-task learning is applied to the model, which considers the keywords extraction task as an auxiliary task of the document summarization task. The candidate summary which derived from the prediction of the neural networks in the model is often highly redundant, so the model refines it to create the final summary of low redundancy. The comparative experiment on the document summarization benchmark shows that the proposed model outperforms the baselines. Besides, ablation studies also demonstrate the necessity of introducing heterogeneous nodes and keywords.
  • [1] 李金鹏, 张闯, 陈小军, 等. 自动文本摘要研究综述[J]. 计算机研究与发展, 2021, 58(1): 1-21.

    LI J P, ZHANG C, CHEN X J, et al. Survey on automatic text summarization[J]. Journal of Computer Research and Development, 2021, 58(1): 1-21.
    [2] LUHN H P. The automatic creation of literature abstracts[J]. IBM Journal of Research and Development, 1958, 2(2): 159-165. doi:  10.1147/rd.22.0159
    [3] RUSH A M, CHOPRA S, WESTON J. A neural attention model for abstractive sentence summarization[C]//Proc of the 2015 Conf on Empirical Methods in Natural Language Processing. Stroudsburg: ACL, 2015: 379-389.
    [4] EDMUNDSON H P. New methods in automatic extracting[J]. Journal of the ACM, 1969, 16(2): 264-285. doi:  10.1145/321510.321519
    [5] MIHALCEA R, TARAU P. TextRank: Bringing order into text[C]//Proc of the 2004 Conf on Empirical Methods in Natural Language Processing. Stroudsburg: ACL, 2004: 404-411.
    [6] PAGE L, BRIN S, MOTWANI R, et al. The PageRank citation ranking: Bringing order to the web[R]. Palo Alto: Stanford InfoLab, 1999.
    [7] YAN S, WAN X J. SRRank: Leveraging semantic roles for extractive multi-document summarization[J]. IEEE/ACM Transactions on Audio, Speech, and Language Processing, 2014, 22(12): 2048-2058. doi:  10.1109/TASLP.2014.2360461
    [8] ZHENG H, LAPATA M. Sentence centrality revisited for unsupervised summarization[C]//Proc of the 57th Annual Meeting of the Association for Computational Linguistics. Stroudsburg: ACL, 2019: 6236-6247.
    [9] NALLAPATI R, ZHAI F F, ZHOU B W. SummaRuNNer: A recurrent neural network based sequence model for extractive summarization of documents[C]//Proc of the 31st AAAI Conf on Artificial Intelligence. Palo Alto: AAAI, 2017: 3075-3081.
    [10] YAO K C, ZHANG L B, LUO T J, et al. Deep reinforcement learning for extractive document summarization[J]. Neurocomputing, 2018, 284: 52-62. doi:  10.1016/j.neucom.2018.01.020
    [11] 韩鹏宇, 余正涛, 高盛祥, 等. 案件要素句子关联图卷积的案件舆情摘要方法[J]. 软件学报, 2021, 32(12): 3829-3838.

    HAN P Y, YU Z T, GAO S X, et al. Case-related public opinion summarization method based on graph convolution of sentence association graph with case elements[J]. Journal of Software, 2021, 32(12): 3829-3838.
    [12] DEVLIN J, CHANG M W, LEE K, et al. BERT: Pre-training of deep bidirectional transformers for language understanding[C]//Proc of the 2019 Conf of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers). Stroudsburg: ACL, 2019: 4171-4186.
    [13] ZHONG M, LIU P F, CHEN Y R, et al. Extractive summarization as text matching[C]//Proc of the 58th Annual Meeting of the Association for Computational Linguistics. Stroudsburg: ACL, 2020: 6197-6208.
    [14] LIU Y, LAPATA M. Text summarization with pretrained encoders[C]//Proc of the 2019 Conf on Empirical Methods in Natural Language Processing and the 9th Int Joint Conf on Natural Language Processing (EMNLP-IJCNLP). Stroudsburg: ACL, 2019: 3730-3740.
    [15] PASQUIER C. Single document keyphrase extraction using sentence clustering and latent Dirichlet allocation[C]//Proc of the 5th Int Workshop on Semantic Evaluation. Stroudsburg: ACL, 2010: 154-157.
    [16] CAMPOS R, MANGARAVITE V, PASQUALI A, et al. YAKE! Keyword extraction from single documents using multiple local features[J]. Information Sciences, 2020, 509: 257-289. doi:  10.1016/j.ins.2019.09.013
    [17] SINGHAL A, SHARMA D K. Keyword extraction using Renyi entropy: A statistical and domain independent method[C]//2021 7th Int Conf on Advanced Computing and Communication Systems (ICACCS). Piscataway, NJ: IEEE, 2021: 1970-1975.
    [18] DUARI S, BHATNAGAR V. sCAKE: Semantic connectivity aware keyword extraction[J]. Information Sciences, 2019, 477: 100-117. doi:  10.1016/j.ins.2018.10.034
    [19] TIXIER A, MALLIAROS F, VAZIRGIANNIS M. A graph degeneracy-based approach to keyword extraction[C]//Proc of the 2016 Conf on Empirical Methods in Natural Language Processing. Stroudsburg: ACL, 2016: 1860-1870.
    [20] JAIN A, MITTAL K, VAISLA K S. FLAKE: Fuzzy graph centrality-based automatic keyword extraction[J]. The Computer Journal, 2022, 65(4): 926-939. doi:  10.1093/comjnl/bxaa133
    [21] GOZ F, MUTLU A. MGRank: A keyword extraction system based on multigraph GoW model and novel edge weighting procedure[J]. Knowledge-Based Systems, 2022, 251: 109292. doi:  10.1016/j.knosys.2022.109292
    [22] PENNINGTON J, SOCHER R, MANNING C D. GloVe: Global vectors for word representation[C]//Proc of the 2014 Conf on Empirical Methods in Natural Language Processing (EMNLP). Stroudsburg: ACL, 2014: 1532-1543.
    [23] LECUN Y, BOTTOU L, BENGIO Y, et al. Gradient-based learning applied to document recognition[J]. Proceedings of the IEEE, 1998, 86(11): 2278-2324. doi:  10.1109/5.726791
    [24] HOCHREITER S, SCHMIDHUBER J. Long short-term memory[J]. Neural Computation, 1997, 9(8): 1735-1780. doi:  10.1162/neco.1997.9.8.1735
    [25] VELIČKOVIĆ P, CUCURULL G, CASANOVA A, et al. Graph attention networks[EB/OL]. [2023-01-03]. https://arxiv.org/abs/1710.10903.
    [26] MAAS A L, HANNUN A Y, NG A Y. Rectifier nonlinearities improve neural network acoustic models[C]//Proc of the 30th Int Conf on Machine Learning. Brookline, MA: Microtome Publishing, 2013: 2104-2109.
    [27] BRODY S, ALON U, YAHAV E. How attentive are graph attention networks?[EB/OL]. [2023-01-03]. https://arxiv.org/abs/2105.14491.
    [28] VASWANI A, SHAZEER N, PARMAR N, et al. Attention is all you need[C]//Proc of the 31st Int Conf on Neural Information Processing Systems. New York: Curran Associates Inc, 2017: 6000-6010.
    [29] HE K M, ZHANG X Y, REN S Q, et al. Deep residual learning for image recognition[C]//Proc of the IEEE Conf on Computer Vision and Pattern Recognition. Los Alamitos: IEEE Computer Society, 2016: 770-778.
    [30] BA J L, KIROS J R, HINTON G E. Layer normalization[EB/OL]. [2023-01-05]. https://arxiv.org/abs/1607.06450.
    [31] NAIR V, HINTON G E. Rectified linear units improve restricted Boltzmann machines[C]//Proc of the 27th Int Conf on Machine Learning. Madison, WI: Omnipress, 2010: 807-814.
    [32] PAULUS R, XIONG C M, SOCHER R. A deep reinforced model for abstractive summarization[EB/OL]. [2023-01-03]. https://arxiv.org/abs/1705.04304.
    [33] CARBONELL J, GOLDSTEIN J. The use of MMR, diversity-based reranking for reordering documents and producing summaries[C]//Proc of the 21st Annual Int ACM SIGIR Conf on Research and Development in Information Retrieval. New York: ACM, 1998: 335-336.
    [34] HERMANN K M, KOČISKÝ T, GREFENSTETTE E, et al. Teaching machines to read and comprehend[C]//Proc of the 28th Int Conf on Neural Information Processing Systems-Volume 1. Cambridge: MIT Press, 2015: 1693-1701.
    [35] NALLAPATI R, ZHOU B W, SANTOS C, et al. Abstractive text summarization using sequence-to-sequence RNNs and beyond[C]//Proc of the 20th SIGNLL Conf on Computational Natural Language Learning. Stroudsburg: ACL, 2016: 280-290.
    [36] SEE A, LIU P J, MANNING C D. Get to the point: Summarization with pointer-generator networks[C]//Proc of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers). Stroudsburg: ACL, 2017: 1073-1083.
    [37] LIN C Y, HOVY E. Automatic evaluation of summaries using n-gram co-occurrence statistics[C]//Proc of the 2003 Conf of the North American Chapter of the Association for Computational Linguistics on Human Language Technology. Stroudsburg: ACL, 2003: 71-78.
    [38] KINGMA D P, BA J. Adam: A method for stochastic optimization[EB/OL]. [2023-01-03]. https://arxiv.org/abs/1412.6980.
    [39] NARAYAN S, COHEN S B, LAPATA M. Ranking sentences for extractive summarization with reinforcement learning[C]//Proc of the 2018 Conf of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies. Stroudsburg: ACL, 2018: 1747-1759.
    [40] DONG Y, SHEN Y K, CRAWFORD E, et al. BanditSum: Extractive summarization as a contextual bandit[C]//Proc of the 2018 Conf on Empirical Methods in Natural Language Processing. Stroudsburg: ACL, 2018: 3739-3748.
    [41] ZHOU Q Y, YANG N, WEI F R, et al. Neural document summarization by jointly learning to score and select sentences[C]//Proc of the 56th Annual Meeting of the Association for Computational Linguistics. Stroudsburg: ACL, 2018: 654-663.
    [42] ZHONG M, LIU P F, WANG D Q, et al. Searching for effective neural extractive summarization: What works and what’s next[C]//Proc of the 57th Annual Meeting of the Association for Computational Linguistics. Stroudsburg: ACL, 2019: 1049-1058.
    [43] WANG D Q, LIU P F, ZHENG Y N, et al. Heterogeneous graph neural networks for extractive document summarization[C]//Proc of the 58th Annual Meeting of the Association for Computational Linguistics. Stroudsburg: ACL, 2020: 6209-6219.
  • 加载中
通讯作者: 陈斌, bchen63@163.com
  • 1. 

    沈阳化工大学材料科学与工程学院 沈阳 110142

  1. 本站搜索
  2. 百度学术搜索
  3. 万方数据库搜索
  4. CNKI搜索

Figures(4)  / Tables(4)

Article Metrics

Article views(2019) PDF downloads(5) Cited by()

Related
Proportional views

Extractive Document Summarization Model Based on Heterogeneous Graph and Keywords

doi: 10.12178/1001-0548.2023019

Abstract: Extractive document summarization uses certain strategies to select some sentences from lengthy texts to form a summary, whose key is to use as much semantic and structural information of the text as possible. In order to better mine such information and then use it to guide the summarization, an extractive document summarization model based on heterogeneous graph and keywords (HGKSum) is proposed, which models the text as a heterogeneous graph composed of sentence nodes and word nodes. The model uses the graph attention networks to learn the features of the nodes in the graph. The multi-task learning is applied to the model, which considers the keywords extraction task as an auxiliary task of the document summarization task. The candidate summary which derived from the prediction of the neural networks in the model is often highly redundant, so the model refines it to create the final summary of low redundancy. The comparative experiment on the document summarization benchmark shows that the proposed model outperforms the baselines. Besides, ablation studies also demonstrate the necessity of introducing heterogeneous nodes and keywords.

ZHU Qilin, WANG Yu, XU Jian. Extractive Document Summarization Model Based on Heterogeneous Graph and Keywords[J]. Journal of University of Electronic Science and Technology of China, 2024, 53(2): 259-270. doi: 10.12178/1001-0548.2023019
Citation: ZHU Qilin, WANG Yu, XU Jian. Extractive Document Summarization Model Based on Heterogeneous Graph and Keywords[J]. Journal of University of Electronic Science and Technology of China, 2024, 53(2): 259-270. doi: 10.12178/1001-0548.2023019
  • 信息时代信息容量呈指数级增长,人们通常需要一份好的摘要来帮助自己处理如此庞大的信息,然而人工进行的摘要总结无论是从时间成本上还是经济成本上都已经变得越来越难以实施,因此依靠计算机的自动文本摘要技术已经成为了研究的热点。

    自动文本摘要就是要在保留原文本主要思想的同时,对其进行压缩凝练,并最终产生一个简明流畅摘要的过程。一般来说,自动文本摘要按照其生成方式可以分为抽取式(extractive)摘要和生成式(abstractive)摘要[1]。生成式摘要对文本进行深度分析,产生一个由新生成的句子构成的摘要;而抽取式摘要则是选择原文本中重要的句子或段落,并把它们组合起来组成摘要。与生成式摘要相比,抽取式摘要具有语义正确性高、语法错误少、摘要速度快等优点,因此,本文关注的是抽取式摘要。

    在抽取式文本摘要的研究中,最重要的是如何对句子的重要性进行评价。传统的方法通常是基于统计信息的方法,该类方法使用一些统计信息,如句子位置、词频等来识别文档中的重要句子。尽管这类方法具有实现简单、计算迅速等优点,但由于它们没有考虑句子和词语的语义信息,所以生成的摘要质量相对较差。

    语义信息是指文本中的语义单元(如字、词、句子等)所携带的符合人类认知的有意义的信息。人类正是通过感知语义信息,才能理解文本所表达的含义。而结构信息则更侧重于语义单元在文本中的布局信息,如开头和结尾的语义单元通常更重要,再如两个语义单元之间的距离通常能反映二者之间的联系。

    为了更好地获得句子的语义信息和结构信息,基于深度学习的抽取式文本摘要方法开始变得流行起来。这类方法通常采用的是编码器−解码器框架,并使用循环神经网络(Recurrent Neural Network, RNN)对句子进行编码。然而,基于循环神经网络的模型通常难以捕获句子级的长程依赖,进而导致模型表示的跨句关系不够丰富,影响摘要的质量。

    一种直观的捕获跨句关系的方法是将文本表示为图。基于图的抽取式文本摘要方法将文本单元(如词语、句子等)建模为图中的节点,根据其在文本中的关系(如共现关系、语法关系等)进行连边,之后在图上进行节点的排序算法得到摘要。大多数基于图的抽取式文本摘要方法构建的是同构图,只考虑句子一种节点,而忽视了词语等其他类型的文本单元,而少数基于异构图的方法又严重依赖外部工具,存在着错误传播的问题。

    与摘要类似,关键词也能表示文本的主要信息,而且从某种程度上来讲,关键词可以看作是一种更细粒度的摘要。容易发现,关键词常常贯穿于整个文本中,且集中出现在参考摘要中,因此关键词对于跨句关系的捕获以及摘要的抽取有着至关重要的指导作用。然而目前的抽取式文本摘要方法却常常忽视这一重要信息,对其利用程度还远远不够。

    基于此,本文研究了基于异构图和关键词的抽取式文本摘要模型HGKSum(Summarization Based on Heterogeneous Graph and Keywords)。为了丰富句子间的关系,此模型不仅依靠句子节点构图,还引入了词语节点,构造一种异构图。词语节点可以看作是句子节点之间的桥梁,让没有直接相邻的句子也间接联系在了一起。在如何对文本图进行学习的方面,模型采用图注意力网络来学习节点特征,可以很好地捕获图的结构信息。在如何利用关键词信息方面,模型使用关键词信息来缓解噪声词语节点对文本结构的影响,此外,由于关键词抽取任务和文本摘要任务具有互补性,模型使用多任务学习的思想,将关键词抽取任务作为文本摘要任务的辅助任务,在训练阶段,不仅对句子节点进行预测,对词语节点也进行预测,二者联合训练,能够获得更佳的摘要。

    • 本文提出的模型在摘要过程中融入了关键词信息,因此相关工作主要包括文本摘要以及关键词抽取。

    • 文献[2]开创了系统研究文本摘要的先河,提出在排除停止词后,包含高频词语越多的句子越有可能成为摘要。之后,越来越多的文本摘要方法被提出,主要包括抽取式和生成式两类方法。生成式文本摘要方法目前主流的框架为序列到序列(Sequence to Sequence, Seq2Seq)模型,如文献[3]在编码阶段引入了注意力机制,在解码阶段使用束搜索(Beam Search)来生成摘要。由于本文提出的模型为抽取式模型,因此将重点关注抽取式文本摘要方法。

      抽取式文本摘要方法大致可以分为有监督的方法和无监督的方法两类,有监督的方法需要标注数据,而无监督的方法则不需要提前标注。传统的基于统计信息的方法和基于图的方法都属于无监督的方法。早期的方法通常是基于统计信息的方法,文献[4]在关键词频的基础上引入了线索词(Cue Words)、标题词、句子位置等因素来计算句子权重。由于图能够很好地表示结构信息,基于图的方法也很早就得到了研究人员的关注。文献[5]根据句子的余弦相似度进行构图,使用文献[6]的思想对图中节点进行排序,提出了TextRank算法。文献[7]研究了使用语义角色信息来改进基于图的多文档摘要排序算法。文献[8]引入大规模预训练语言模型来捕获语义信息,并根据句子的位置信息将传统的无向图转换为有向图来进行摘要。

      基于机器学习的方法通常是有监督的方法,其中基于深度学习的方法成为了新的研究热点。文献[9]提出了SummaRuNNer,这是一种基于顺序分类来提取文本摘要的两层双向门控循环单元(Gated Recurrent Unit, GRU)序列模型,其中每个句子按原始顺序依次访问,并判断是否使用它作为摘要。文献[10]研究了强化学习在抽取式文本摘要任务上的应用,提出了一种基于深度Q网络(Deep Q-Network, DQN)的摘要方法,该方法利用Q值对句子的显着性和冗余性进行建模。文献[11]针对案件舆情领域的摘要问题,提出使用图卷积网络(Graph Convolutional Network, GCN)来进行摘要。此外,基于BERT[12]等预训练模型的方法也得到了许多研究并取得了不错的效果。MatchSum[13]将抽取式文本摘要任务视作语义匹配问题,使用孪生BERT网络在摘要粒度上进行训练,选择最佳的候选摘要成为最终摘要。BertSum[14]通过修改BERT模型的输入并叠加不同的分类器来对其进行微调,并最终获得摘要。

    • 作为理解文本内容的最小单位,关键词表征了文本主题性和关键性的内容,并得到了研究人员的广泛关注。文献[15]提出了使用句子聚类和潜在狄利克雷分布的单文档关键短语提取算法。该算法利用句子向量之间的余弦相似度进行聚类,以突出显示语义相关的文本部分,之后分析反映文档主题的句子集群以获得文本的主要主题,这些主题中最重要的词被提取为关键词。YAKE算法[16]基于文档的统计特征进行关键词抽取。该算法充分考虑了文档中词语的一些属性,如大小写、位置、频率、停止词的相似度和包含该单词的句子数等,提出了统一的评分公式,并最终生成冗余度低的关键词。文献[17]提出引入瑞丽熵来对词语重要性进行评判,进而抽取关键词。

      与抽取式文本摘要算法类似,基于图的关键词抽取算法也是一类重要的算法。sCAKE算法[18]关注词语在邻接句子之间的共现关系,利用图的truss分解导出文档中词语的语义关系,利用词语间的语义关系抽取关键词。文献[19]选择使用k-core、k-truss、k-shell等对语言网络图进行图收缩,抽取出影响力大的节点作为文档关键词。FLAKE算法[20]根据词语在文档中出现的位置和次数,依靠模糊逻辑将文档构建为一个模糊图,并根据模糊图中节点的中心度来确定关键词。MGRank算法[21]提出使用多重图来建模文档,使得两个节点之间的边数可以多于一条,提高了抽取关键词的质量。

    • 为了捕获复杂的跨句关系,提出一种基于异构图和关键词的抽取式文本摘要模型,命名为HGKSum,其框架如图1所示,其中圆形节点、矩形节点、五边形节点、菱形节点分别代表重要词语、重要句子、普通词语、普通句子,黄色网络、红色网络、绿色网络、蓝色网络分别代表词−词节点特征学习、句−句节点特征学习、句−词节点特征学习、词−句节点特征学习。HGKSum主要包括异构图构建、文本向量化、异构图节点特征学习、多任务学习、摘要精炼5部分。首先,模型根据句子、词语之间的关系以及权重大小构建异构的文本结构图,之后对图的节点及边的特征进行向量化,再依靠图注意力网络对节点特征进行学习,依次进行词−词节点特征学习、句−句节点特征学习、句−词节点特征学习和词−句节点特征学习,整体训练方式为多任务学习,包括关键词抽取任务和文本摘要任务,最后进行精炼得到最终摘要。

    • 异构图即图中节点类型或边的类型不止一种,而同构图则是图中节点类型和边的类型都只有一种,可以在一定程度上认为是异构图的特殊情况。异构图可形式化表示如下。

      记图$ \mathcal{G}=\left(\mathcal{V},\mathcal{E}\right) $,其中$ \mathcal{V} $表示图中节点的集合,$ \mathcal{E} $表示图中边的集合,若图$ \mathcal{G} $还具有节点类型映射函数$ \pi :\mathcal{V}\to \mathcal{A} $和边类型映射函数$ \varpi :\mathcal{E}\to \mathcal{R} $,其中$ \mathcal{A} $表示预定义的节点类型,$ \mathcal{R} $表示预定义的边类型,且$ \left|\mathcal{A}\right|+\left|\mathcal{R}\right| > 2 $,那么图$ \mathcal{G} $就是一个异构图。

      模型将文本建模为无向异构图$ G=\{V,E\} $,其中V表示图中节点的集合,E表示图中边的集合。图中的节点包括两类,分别是句子节点和词语节点,即$ V={V}_{\mathrm{w}}\cup {V}_{\mathrm{s}} $,其中$ {V}_{\mathrm{w}}=\{{w}_{1},{w}_{2},\cdots ,{w}_{m}\} $表示的是文本经过分词得到的m个独特的词语组成的集合,$ {V}_{\mathrm{s}}=\{{s}_{1},{s}_{2},\cdots ,{s}_{n}\} $表示的是文本经过分句得到的n个独特的句子组成的集合。图中的边$ E=\left\{\right({v}_{i},{v}_{j}\left)\right| v\in V\} $,具体构建方式如下。

      1)当两个词语在一句话中共现时,二者对应的节点进行连边;

      2)当两个句子相邻时,二者对应的节点进行连边;

      3)当一个词语出现在一个句子中时,二者对应的节点进行连边;

      4)对每个节点添加自环。

      记节点$ V=\{{w}_{1},{w}_{2},\cdots ,{w}_{m},{s}_{1},{s}_{2},\cdots ,{s}_{n}\} $,异构图邻接矩阵为${\boldsymbol{A}} $,可知${\boldsymbol{A}} $为分块矩阵,包括词−词邻接矩阵$ {\boldsymbol{A}}_{\mathrm{w}\mathrm{w}} $、句−句邻接矩阵$ {\boldsymbol{A}}_{\mathrm{s}\mathrm{s}} $以及词−句邻接矩阵$ {\boldsymbol{A}}_{\mathrm{w}\mathrm{s}} $,那么上述构建方式可形式化描述如下。

    • 为了捕获文本更多的信息,模型构建的是带权图,权重的计算针对不同类型的边综合考虑了多种统计特征。具体来说,对于词−词边,主要考虑词语的共现次数(Co-occurrence Counts, CC);对于句−句边,主要考虑句子的位置(Position, POS);对于词−句边,主要考虑词语的词频−逆文档频率(Term Frequency–Inverse Document Frequency, TF-IDF)。

      共现次数CC即两个词语在一句话中共同出现的次数,该特征表示了两个词语间的紧密程度。由于文本开头的句子通常较为重要,因此句子位置POS也能在一定程度上反映出句子的重要性。词频−逆文档频率TF-IDF表示了一个词对于一句话的重要程度,具体计算公式为:

      式中,$ {\rm{TF}}(w,s) $表示词语w在句子s中的词频;n表示文本中句子的数目;DF(w)表示文本中包含词语w的句子数目。对于自环的权重,模型可以将其设为一个特殊值,如0。综上所述,权重的具体计算为:

    • 为了减轻噪声节点对于节点特征学习的影响,传统做法是使用固定的停止词列表进行停止词消除,而本模型则是引入关键信息来筛选重要节点。

      TextRank算法[5]是一种高效的无监督的关键词抽取算法,同时它也能抽取摘要句,它将文本构建为图,在图上使用PageRank算法[6]对节点打分以得到重要节点。本模型对待摘要原文使用TextRank算法分别获取k个关键词和l个摘要句作为重要节点,分别记作$ {V}_{\mathrm{k}\mathrm{w}} $$ {V}_{\mathrm{k}\mathrm{s}} $,可知$ {V}_{\mathrm{k}\mathrm{w}}\subseteq {V}_{\mathrm{w}} $$ {V}_{\mathrm{k}\mathrm{s}}\subseteq {V}_{\mathrm{s}} $

      重要节点将在节点特征学习中控制信息的传递方式,其具有更高的权重,能够参与更多的学习过程,本文将在后文对其进行详细介绍。

    • 无论是词语、句子还是权重都需要将他们向量化才能进行学习。本文将词向量、句向量和权重向量分别表示为$ {\boldsymbol{x}}_{\mathrm{w}}\in {\mathbb{R}}^{{d}_{\mathrm{w}}} $$ {\boldsymbol{x}}_{\mathrm{s}}\in {\mathbb{R}}^{{d}_{\mathrm{s}}} $$ {\boldsymbol{x}}_{\mathrm{e}}\in {\mathbb{R}}^{{d}_{\mathrm{e}}} $,其中$ {d}_{\mathrm{w}} $表示词向量的维度,$ {d}_{\mathrm{s}} $表示句向量的维度,$ {d}_{\mathrm{e}} $表示权重向量的维度。

      对于词向量$ {\boldsymbol{x}}_{\mathrm{w}} $,为了在一开始就获得一个较好的语义表示,模型采用预训练的词向量模型进行初始化,如GloVe[22]

      对于句向量$ {\boldsymbol{x}}_{\mathrm{s}} $,由于句子是词语的集合,所以模型首先对句子中的每个词语进行初始化得到$ {\boldsymbol{x}}_{\mathrm{w}} $,之后基于每个句子的词向量$ {\boldsymbol{x}}_{\mathrm{w}} $集合,使用卷积神经网络(Convolutional Neural Network, CNN)[23]捕获句子的局部特征$ {\boldsymbol{x}}_{\mathrm{s}}' $,最后为了获得句子的全局特征,模型将这些$ {\boldsymbol{x}}_{\mathrm{s}}' $送入双向长短时记忆网络(Bi-Directional Long Short-Term Memory, BiLSTM)[24]中来得到$ {\boldsymbol{x}}_{\mathrm{s}} $

      对于权重向量$ {\boldsymbol{x}}_{\mathrm{e}} $,由于模型构建的异构图的权重为无界的连续值,所以需要先对其进行离散化编码,再将其向量化。模型采用了一种简单的编码方式,首先针对不同的权重类型,对权重值分别进行线性归一化,并将其放缩到适当的区间内,如[1,10],而后对新的权重值进行四舍五入操作,将其离散化,如此便得到了3×10+1=31个码点,即权重向量的“词表”大小为31。在对原始权重值编码后,模型采用随机初始化的方式初始化可学习的权重向量$ {\boldsymbol{x}}_{\mathrm{e}} $

    • 作为图神经网络的一种,图注意力网络(Graph Attention Network, GAT)[25]可以直接学习图结构,且可以应对归纳式任务。因此,模型采用图注意力网络来学习文本图中语义节点的特征。

      设图中节点特征维度为$ {d}_{\mathrm{h}} $,则第i个节点的特征向量可表示为$ {\boldsymbol{h}}_{i}\in {\mathbb{R}}^{{d}_{\mathrm{h}}},i\in \{1,2,\cdots ,(m+n\left)\right\} $,图注意力网络只考虑其邻居节点的特征,并使用LeakyReLU[26]来增强模型的非线性表达能力,具体为:

      式中,$ \rho $为LeakyReLU的超参数;线性变换矩阵$ \boldsymbol{W}\in {\mathbb{R}}^{{d}_{\mathrm{h}}'\times {d}_{\mathrm{h}}^{}} $用作特征增强;注意力向量$ \boldsymbol{a}\in {\mathbb{R}}^{2{d}_{\mathrm{h}}'} $用于实现注意力机制;节点j为节点i的某一邻居节点;$ {\alpha }_{ij} $表示节点ij之间的注意力系数;$ {\mathcal{N}}_{i} $表示节点i的邻居节点集合;$ \mathrm{\phi } $表示任意激活函数,如ELU函数等。拥有P个头的多头图注意力网络可以表示为:

      式中,$ {(\cdot)}^{p} $表示在第p个头中相应的参数;||表示向量拼接。

      文献[25]提出的图注意力网络中的注意力机制已经成为事实上的标准,如式(8)所示。然而,文献[27]研究发现由于$ \boldsymbol{W} $$ \boldsymbol{a} $连在一块,二者退化为一个可学习参数,因此式(8)实现的是“静态注意力”,即给定一组固定的键(节点i的邻居节点集),不同的查询(节点i)得到的注意力分数排名不变。毫无疑问,“静态注意力”使得模型的表征能力大打折扣。此外,原始的图注意力网络没有考虑边权信息,为了有效利用这些信息,模型在文献[27]工作的基础上,采用式(12)实现注意力机制。

      式中,$ {\boldsymbol{e}}_{ij}\in {\mathbb{R}}^{{d}_{\mathrm{e}}} $表示节点ij之间的权重向量。综合式(9)~式(12)将图注意力网络表示为$ \mathrm{G}\mathrm{A}\mathrm{T}({\boldsymbol{H}}_{\mathrm{q}},{\boldsymbol{H}}_{\mathrm{k}}, {\boldsymbol{H}}_{\mathrm{v}}) $,其中$ {\boldsymbol{H}}_{\mathrm{q}},{\boldsymbol{H}}_{\mathrm{k}},{\boldsymbol{H}}_{\mathrm{v}} $分别表示注意力机制中的查询节点向量、键节点向量和值节点向量。

      Transformer[28]模型在许多自然语言处理任务中都取得了优异的成绩。为了提高表达能力,模型借鉴了Transformer模型的结构,在每个图注意力网络后面都引入一个全连接的前馈神经网络(Feed-Forward Network, FFN),并引入了残差连接[29]和层标准化(Layer Normalization, LayerNorm)[30]。设输入特征为$ \boldsymbol{h}\in {\mathbb{R}}^{{d}_{\mathrm{h}}} $,前馈神经网络和层标准化可具体表示如下:

      式中,ReLU[31]为线性整流函数;$ {\boldsymbol{W}}_{\mathrm{f}1}\in {\mathbb{R}}^{{d}_{\mathrm{f}}\times {d}_{\mathrm{h}}} $$ {\boldsymbol{W}}_{\mathrm{f}2}\in {\mathbb{R}}^{{d}_{\mathrm{h}}\times {d}_{\mathrm{f}}} $$ {\boldsymbol{b}}_{\mathrm{f}1}\in {\mathbb{R}}^{{d}_{\mathrm{f}}} $$ {\boldsymbol{b}}_{\mathrm{f}2}\in {\mathbb{R}}^{{d}_{\mathrm{h}}} $$ \boldsymbol{g}\in {\mathbb{R}}^{{d}_{\mathrm{h}}} $$ \boldsymbol{b}\in {\mathbb{R}}^{{d}_{\mathrm{h}}} $均为可学习参数;$ {\mu }_{h} $h的总体均值;$ {\sigma }_{h} $h的总体标准差;$ \odot $为矩阵的哈达玛积(两个同型矩阵对应位置元素相乘)。

    • 模型构建的异构图的节点类型可粗粒度地分为词语节点和句子节点两种,每种节点均可以作为图注意力网络的查询节点和键节点,因此一共有4种学习方式,分别是词−词节点特征学习、句−句节点特征学习、句−词节点特征学习、词−句节点特征学习。为了更好地捕获节点之间的关系,不同学习方式的学习次序显得尤为重要。

      由于同构节点之间的特征相似性较高易于学习,而异构节点之间的特征差异性较高需要更好的节点特征表示才能获得好的学习效果。因此模型先进行同构节点特征的学习,而后进行异构节点特征的学习。此外,由于主任务是文本摘要任务,因此在异构节点特征的学习中,应先进行句−词节点特征学习以获得更好的词特征,最后进行词−句节点特征学习。

      基于图注意力网络的节点特征学习可以朴素地理解为节点根据其邻居节点的特征来更新自己的特征,因此噪声节点的存在将影响学习效果。假如一个句子中大部分都是停止词,那么其进行词−句节点特征学习时,其邻居节点大部分都是停止词对应的词语节点,最终其学习到的特征将趋向于意义不大的停止词的特征。为了缓解这一问题,模型引入重要节点,在异构节点特征学习过程中,只有重要节点才能成为键节点和值节点,使得查询节点特征更加关注关键信息。

      综上所述,节点特征经过初始化后,首先进行词−词节点特征学习和句−句节点特征学习,而后进行句−词节点特征学习,最后进行词−句节点特征学习,学习过程如式(16)~式(25)所示。

      式中,$ {\boldsymbol{H}}_{\mathrm{w}}^{i}\in {\mathbb{R}}^{{d}_{\mathrm{h}}\times m},{\boldsymbol{H}}_{\mathrm{s}}^{i}\in {\mathbb{R}}^{{d}_{\mathrm{h}}\times n},{\boldsymbol{H}}_{\mathrm{k}\mathrm{w}}^{i}\in {\mathbb{R}}^{{d}_{\mathrm{h}}\times k},{\boldsymbol{H}}_{\mathrm{k}\mathrm{s}}^{i}\in {\mathbb{R}}^{{d}_{\mathrm{h}}\times l}, i\in \{\mathrm{0,1},2\} $分别代表时间步为i时的词向量、句向量、重要词语向量、重要句子向量;$ {\boldsymbol{X}}_{\mathrm{w}} $$ {\boldsymbol{X}}_{\mathrm{s}} $分别代表初始化的词向量和句向量。

    • 抽取式文本摘要任务和关键词抽取任务均可被视作一个文本分类任务。给定一篇具有n个句子的文档$ D=\{{s}_{1},{s}_{2},\cdots ,{s}_{n}\} $,其具有大小为m的词表$ {\rm{Vocab}}=\{{w}_{1},{w}_{2},\cdots ,{w}_{m}\} $,抽取式文本摘要的任务是对每个句子$ {s}_{i} $预测其是否为摘要句,关键词抽取任务则是对每个词语$ {w}_{i} $预测其是否为关键词。不难发现,二者在任务定义上具有高度的相似性。此外,从优化角度来看,二者都是从文本中抽取重要的文本单元,且通常使用交叉熵作为损失函数,具有相同的优化方向。因此为了提高性能,模型使用多任务学习的方式进行训练,将抽取式文本摘要任务作为主任务,将关键词抽取任务作为辅助任务,二者联合训练,希望二者能够互相补充和促进,进而获得更好的摘要效果。

      模型对异构图中的每个节点使用简单的全连接层进行二分类,句子节点将被分为摘要句和非摘要句,词语节点将被分为关键词和非关键词,分别为:

      式中,$ {\boldsymbol{W}}_{\mathrm{f}\mathrm{c}}\in {\mathbb{R}}^{2\times {d}_{\mathrm{h}}};{\boldsymbol{b}}_{\mathrm{f}\mathrm{c}}\in {\mathbb{R}}^{2} $为全连接层的权重和偏置。

      在一篇文章中大部分句子和词语都是普通句子和普通词语,摘要句以及关键词占比通常很小,因此样本不平衡问题广泛存在于抽取式文本摘要任务以及关键词抽取任务中,导致模型难以关注文本的关键部分。为了缓解这一问题,模型使用带权的交叉熵作为损失函数,对于样本数少的类别将赋予其较大的权重。带权的交叉熵损失函数定义为:

      式中,C为类别数目;N为样本数目;$ {w}_{c} $为第c类的权重;$ {q}_{n,c}\in \left\{\mathrm{0,1}\right\} $为样本n在第c类的标签;$ {p}_{n,c} $为模型预测的样本n属于第c类的概率。

      最终的损失函数由两部分组成,分别用于抽取式文本摘要任务和关键词抽取任务,定义如下:

      式中,$ 0\le \lambda \le 1 $为调节系数;$ {\boldsymbol{T}}_{\mathrm{s}} $$ {\boldsymbol{T}}_{\mathrm{w}} $分别为句子标签和词语标签。

      上面仅是从理论上讨论了模型的结构和训练过程,然而在实际应用中,大部分文本摘要领域的数据集并未给出模型训练所需的关键词标签。因此,针对在实际训练过程中数据集标签缺失的问题,模型根据数据集提供的参考摘要,使用启发式的方法生成关键词标签。为了减小待摘要原文中无关词的影响,模型认为关键词出现在参考摘要中的概率比出现在待摘要原文中的概率高,因此选择对参考摘要使用无监督的TextRank算法来抽取关键词作为标签。

    • 一份好的摘要不仅要尽可能多地覆盖原文大意,还要具有尽可能低的冗余信息。通过前面的步骤,模型得到了每个句子的得分$ {\boldsymbol{Y}}_{\mathrm{s}} $。给定摘要预期长度K,传统的解码方式是选择得分最高的K个句子形成摘要。然而,这样做会引入大量的冗余信息,导致最后的摘要质量不佳。其原因在于人们通常会使用多个不同的句子描述同一件事情,特别是在描述重要事情时,这就导致许多得分高的句子其实是冗余句子。

      三元语法(trigram)是指文本中连续出现的3个语词,如“This is a sentence”这句话中所有的三元语法为“This is a”和“is a sentence”。三元语法作为一种文本语义单元,可以在一定程度上度量两篇文本的冗余程度。本文启发式地认为,如果两个句子具有相同的三元语法,那么这两个句子是冗余的。基于此,为了获得低冗余的摘要,模型采用文献[32]提出的方法,在解码阶段根据三元语法的重叠情况,使用最大边缘相关[33]的思想进行摘要精炼来得到最终摘要。

      具体流程如算法1所示,首先初始化已选择句子的三元语法集合为空集,并对每个句子按照其得分由高到低进行排序,之后依次遍历每个句子直到已选择句子长度达到预期摘要长度,在遍历时,计算当前句子的三元语法集合和已选择句子的三元语法集合,如果二者不相交,那么选择该句子作为摘要句。

      算法1 摘要精炼算法

      输入:预期摘要长度K,所有句子Sents,句子得分Ys

      输出:最终摘要Summary

      Summary ← [], trigrams_set ← $ \mathrm{\varnothing } $, sents_num ← 0

      sorted_sent ← sort(Sents, Ys)

      for sent in sorted_sent do

        if sents_num = K

          return Summary

        end if

        sent_trigrams ← get_trigrams(sent)

        if is_disjoint(sent_trigrams, trigrams_set)

          trigrams_set ← trigrams_set | sent_trigrams

          Summary.append(sent)

          sent_num++

        end if

      end for

      return Summary

    • 目前文本摘要领域的大部分数据集每篇文档篇幅相对较短,且并不提供适用于抽取式文本摘要训练的标签,难以直接将其应用在有监督的抽取式文本摘要训练中来。此外许多数据集并非开源数据集,需要付费获得授权才能使用,门槛较高。为了确保实验的公平性和可靠性,本文选择使用CNN/DailyMail数据集[34-35]作为实验数据集。

      CNN/DailyMail数据集是目前单文档文本摘要领域中最常用的测试基准,其主要内容为摘自CNN和DailyMail上的新闻,平均文档长度为781个单词,平均摘要长度为3个句子。本文使用该数据集的非匿名版本[36],其中训练集、验证集和测试集的样本数分别为287226、13368和11490。

    • 本文采用自动文本摘要领域中最常用的ROUGE[37]指标作为摘要质量的评价指标。ROUGE指标中常用的有ROUGE-N和ROUGE-L。ROUGE-N基于n元语法(n-gram)在系统摘要和参考摘要间的重叠程度来评价系统摘要的质量,ROUGE-L则依据的是最长公共子序列的重叠程度,二者计算公式分别如下:

      式中,$ \text{{Ref}} $代表参考摘要组成的集合;Sys代表系统摘要;$ {\text{gram}}_{{n}} $代表n元语法;$ {\text{Count}}_{\text{match}}\text{(}{\text{gram}}_{{n}}\text{)} $代表系统摘要和参考摘要重叠的n元语法个数;$ \text{Count(}{\text{gram}}_{{n}}\text{)} $代表参考摘要中n元语法个数;LCS表示以词语为单位的最长公共子序列的长度;Length表示以词语为单位的摘要长度。

    • 实验中模型的超参数设置如下:采用6头图注意力网络,初始化的词向量维度$ {d}_{\mathrm{w}} $、句向量维度$ {d}_{\mathrm{s}} $以及图注意力网络中的节点向量维度$ {d}_{\mathrm{h}} $均设为300,前馈神经网络的隐层节点维度$ {d}_{\mathrm{f}} $设为1200,权重向量维度$ {d}_{\mathrm{e}} $设为54。在训练过程中,本文使用Adam[38]作为优化器,学习率设为5×10−5,批尺寸设为32,损失函数摘要句类别权重设为9.98,非摘要句类别权重设为0.55,关键词类别权重设为13.47,非关键词类别权重设为0.53。为了防止过拟合,本文采用早停策略,如果连续3轮训练中验证集上的指标都未下降,就提前停止训练。在测试阶段,摘要预期长度设为3个句子,并使用版本为1.5.5的官方ROUGE脚本进行测评,测评选项为“-m -n 2”。每个实验进行3次,实验结果取平均值。

    • 首先,评估重要节点数目对HGKSum性能的影响。为了探索重要词语节点数目k和重要句子节点数目l的影响,固定任务权重λ为0.7,将kl分别表示为$ \gamma $m$ \gamma $n,其中mn分别为词语节点数目和句子节点数目,设置$ \mathrm{\gamma } $为0~1进行实验,实验结果如表1所示。当$ \mathrm{\gamma }= $0,即不考虑重要节点,模型的效果最差;当$ \mathrm{\gamma } $=0.7,模型的效果最好,两种情形在ROUGE-1、ROUGE-2、ROUGE-L的差距分别为1.49、1.31和1.56。为了更清楚地观察重要节点数目与模型性能之间的关系,进一步地绘制了重要节点数目与平均的ROUGE指标的变化曲线,如图2所示。结合图2表1,可以发现,随着重要节点数目的增加,模型的性能先快速上升,当$ \mathrm{\gamma }\ge 0.3 $,模型性能缓慢上升;当在$ \mathrm{\gamma }=0.7 $时,模型性能最好而后缓慢下降。主要原因在于重要节点数目过少会导致异构节点特征之间的学习机会变少,在$ \mathrm{\gamma }=0 $的极端情况下模型完全不进行异构节点特征之间的学习,严重制约模型的表达能力;而重要节点数目过多则会引入大量噪声节点,在$ \mathrm{\gamma }=1 $的极端情况下所有节点包括噪声节点均被视作重要节点,同样会干扰节点特征的学习过程。

      指标γ=0.0γ=0.1γ=0.2γ=0.3γ=0.4γ=0.5γ=0.6γ=0.7γ=0.8γ=0.9γ=1.0
      R-141.2642.0841.9142.4142.5442.5942.7142.7542.7842.6742.60
      R-218.3319.0618.9819.2719.4319.3919.5819.6419.6219.4019.52
      R-L37.5738.3938.3138.7338.8638.8739.0339.1339.1239.0338.92

      其次,探索任务权重λ对HGKSum性能的影响,将重要节点数目kl分别固定为0.7m和0.7nλ设置为0.5~1进行实验。之所以仅选择λ≥0.5来进行实验,是因为本文将摘要任务定义为主任务,其权重理应最大。实验结果如表2所示。当λ=0.7时,模型效果最好;当λ=1时,模型效果最差,二者在ROUGE-1、ROUGE-2和ROUGE-L上分别相差0.51、0.49和0.61。主要原因在于当λ=1时,完全不考虑关键词抽取任务,多任务学习退化为单任务学习,最终使得模型性能下降。与实验1类似,同样绘制了任务权重与平均ROUGE指标的变化曲线,如图3所示。由图3表2可以发现,在不考虑λ=1的极端情况时,随着任务权重λ的增加,模型性能的起伏不大。具体来说, ROUGE-1、ROUGE-2和ROUGE-L的极差分别为0.02、0.09和0.1,表明模型对于该参数不敏感,有鲁棒性。

      指标λ=0.5λ=0.6λ=0.7λ=0.8λ=0.9λ=1.0
      R-142.7642.7542.7542.7442.7442.24
      R-219.5819.5519.6419.5719.5919.15
      R-L39.1039.0839.1339.0339.1338.52
    • 为了验证使用HGKSum进行摘要的有效性,选择8种基准模型与HGKSum进行对比实验。需要说明的是,受限于计算资源,HGKSum并未引入大规模预训练模型,为了确保公平性,选择的基准模型同样不是基于大规模预训练模型的抽取式文本摘要模型。基准模型包括:

      1) ORACLE[14]表示选择数据集的标签作为摘要,可以在一定程度上看作是抽取式文本摘要在此数据集上的性能上限;

      2) LEAD-3[36]模型简单地选择文章开头的几个句子作为摘要;

      3) REFRESH[39]将抽取式文本摘要任务视作句子排序任务,使用强化学习的方式生成摘要;

      4) BanditSum[40]将抽取式文本摘要任务视作上下文老虎机(contextual bandit)问题,使用强化学习的方式生成摘要;

      5) NeuSUM[41]将抽取式文本摘要中的句子评分和句子选择整合为一个步骤进行整体学习;

      6) PNBERT[42]使用BERT作为编码器,指针网络作为解码器来生成摘要;

      7) MatchSum[13]将抽取式文本摘要任务视作语义匹配问题,使用孪生BERT网络选择最佳的候选摘要成为最终摘要;

      8) HSG[43]与本文模型类似,也是基于异构图的模型,主要不同点在于该模型没有引入关键词信息,也没有进行同构节点之间的特征学习。

      实验结果如表3所示。表3中模型可以分为3类,分别是无监督的模型(LEAD-3)、基于BERT的深度学习模型(PNBERT、MatchSum)和不基于BERT的深度学习模型(REFRESH、BanditSum、NeuSUM、HSG和HGKSum),可以得出如下观测结果。

      1)与ORACLE相比,所有模型的性能仍有较大提升空间,这说明抽取式文本摘要任务远未达到研究瓶颈,尚有广阔的探索空间。

      2)与基于BERT的深度学习基准模型相比,HGKSum的性能强于PNBERT,表明HGKSum在不依赖预训练语言模型的情形下有较好的性能表现。

      3)HGKSum的性能弱于MatchSum,原因在于MatchSum模型复杂度高于HGKSum,MatchSum有1.7亿参数,而HGKSum仅有360万个。计算方式如下:假设输入特征维度数为H,从模型参数量角度进行对比,HGKSum的参数量可近似表示为$ 4(2{H}^{2}+H+8{H}^{2}) $,其中4表示进行了4次节点特征学习,$ {2H}^{2} $是变换矩阵W的参数量,H是注意力向量a的参数量,$ 8{H}^{2} $是前馈神经网络的参数量;而MatchSum的参数量可近似表示为$ 2\times 12({H}^{2}+3{H}^{2}+ 8{H}^{2}) $,其中2表示孪生BERT网络中包含两个BERT网络,12表示一个BERT网络堆叠了12层Transformer块,$ {H}^{2} $是变换矩阵的参数量,$ 3{H}^{2} $是3个注意力矩阵QKV的参数量,$ 8{H}^{2} $是前馈神经网络的参数量。特征维度H在HGKSum中取值为300,在MatchSum中取值为768。

      4)与无监督的基准模型和不采用基于BERT的基准模型相比,HSG模型是表现最好的,而与HSG相比,HGKSum在ROUGE-1、ROUGE-2和ROUGE-L上分别提升了0.72、0.20和0.62,表明HGKSum使用异构图建模文本以及引入关键词信息的有效性。

      模型R-1R-2R-L
      ORACLE52.5931.2448.87
      LEAD-340.3417.7036.57
      REFRESH40.0018.2036.60
      BanditSum41.5018.7037.60
      NeuSUM41.5919.0137.98
      PNBERT42.6919.6038.85
      MatchSum44.4120.8640.55
      HSG42.0319.4438.51
      HGKSum42.7519.6439.13
    • 为了探索HGKSum模型中不同组件对摘要的贡献程度,本文设计了以下消融实验。首先,在文本向量化阶段,实验移除了预训练的GloVe词向量,采用随机初始化的方式初始化词向量,记为M1。其次,在异构图构建过程中,实验不再进行重要节点的筛选,即所有的节点均设为重要节点,记为M2。再次,在节点特征学习过程中,实验分别移除了异构节点特征之间的学习和同构节点特征之间的学习过程,分别记为M3和M4,在训练阶段,实验移除了多任务学习中的关键词抽取任务,采用单任务学习的方式进行训练,记为M5。实验还移除摘要精炼模块,直接使用得分最高的3个句子构成摘要,记为M6。最后,为了验证节点学习次序的正确性,实验选择先进行异构节点之间的学习,再进行同构节点之间的学习,记为M7,之后,实验选择先进行词−句节点特征学习,再进行句−词节点特征学习,记为M8。

      实验结果如表4所示。值得说明的是,不进行重要节点筛选(M2)和不进行异构节点特征学习(M3)实际上分别对应了实验1中的γ设置为1和0,同样地,不进行关键词抽取任务(M5)实际上对应了实验2中的λ设置为1。观察表4,可以发现不论移除哪一组件,HGKSum的性能都有所下降,说明了所有组件均具有正向效用,同时也验证了前面提及的节点学习次序的正确性。为了进一步探索哪一组件贡献最大,本文绘制了柱状图来表示不同消融模型对应组件的贡献,横坐标为消融模型,纵坐标为HGKSum与消融模型在指标上的差值ΔROUGE,如图4所示。由图4可以清楚地发现,M3对应的组件(异构节点特征之间的学习)贡献最大,其在ROUGE-1、ROUGE-2和ROUGE-L上分别贡献了1.49、1.31和1.56,这说明文本摘要关注的句子关系更多地为复杂的跨句关系,难以通过简单的同构节点来学习,体现了HGKSum引入异构节点的必要性。

      模型R-1R-2R-L
      HGKSum42.7519.6439.13
      M142.1219.0438.43
      M242.6019.5238.92
      M341.2618.3337.57
      M442.5119.4038.81
      M542.2419.1538.52
      M641.6519.0838.07
      M742.3019.2038.58
      M842.4619.3538.74
    • 本文提出了一种基于异构图和关键词的抽取式文本摘要模型,构建的异构图能够很好地捕获复杂的句子关系,引入的关键词信息通过多任务学习的方式能够有效地指导摘要的抽取。在基准数据集上的实验表明,本文模型优于不依赖预训练模型的摘要模型。为了获取更好的文本表示,下一步的工作拟探索预训练模型在本模型中的应用。

Reference (43)

Catalog

    /

    DownLoad:  Full-Size Img  PowerPoint
    Return
    Return