留言板

尊敬的读者、作者、审稿人, 关于本刊的投稿、审稿、编辑和出版的任何问题, 您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

姓名
邮箱
手机号码
标题
留言内容
验证码

基于改进BERT算法的专利实体抽取研究—以石墨烯为例

李建 靖富营 刘军

李建, 靖富营, 刘军. 基于改进BERT算法的专利实体抽取研究—以石墨烯为例[J]. 电子科技大学学报, 2020, 49(6): 883-890. doi: 10.12178/1001-0548.2020132
引用本文: 李建, 靖富营, 刘军. 基于改进BERT算法的专利实体抽取研究—以石墨烯为例[J]. 电子科技大学学报, 2020, 49(6): 883-890. doi: 10.12178/1001-0548.2020132
LI Jian, JING Fu-ying, LIU Jun. Study on Patent Entity Extraction Based on Improved Bert Algorithms—A Case Study of Graphene[J]. Journal of University of Electronic Science and Technology of China, 2020, 49(6): 883-890. doi: 10.12178/1001-0548.2020132
Citation: LI Jian, JING Fu-ying, LIU Jun. Study on Patent Entity Extraction Based on Improved Bert Algorithms—A Case Study of Graphene[J]. Journal of University of Electronic Science and Technology of China, 2020, 49(6): 883-890. doi: 10.12178/1001-0548.2020132

基于改进BERT算法的专利实体抽取研究—以石墨烯为例

doi: 10.12178/1001-0548.2020132
基金项目: 国家自然科学基金(71874023)
详细信息
    作者简介:

    李建(1986-),男,博士,主要从事产业创新政策方面的研究

    通讯作者: 刘军,E-mail:lj@uestc.edu.cn
  • 中图分类号: F274

Study on Patent Entity Extraction Based on Improved Bert Algorithms—A Case Study of Graphene

  • 摘要: 实体关系抽取是判断专利新颖性的核心环节,传统的实体关系抽取都是采用串行方式来进行,有很大的局限性。该文利用两种改进的BERT算法研究了专利实体关系抽取的技术演化。一种是将中文特征和句法语义特征相结合的新算法—基于改进的BERT-BiLSTM-CRF命名实体识别算法;另一种是将注意力机制与句法语义特征相结合的新算法—基于注意力机制与语义结合的实体关系抽取算法。最后以石墨烯制备技术为例,利用数值实验说明改进的两种算法能够高效分析专利的内容,揭示石墨烯企业技术的动态演化过程。
  • 图  1  传统实体关系抽取流程

    图  2  基于传统算法的专利中文实体关系抽取框架图

    图  3  BERT模型结构

    图  4  BERT输入表征示意图

    图  5  专利抽取BERT模型体系结构

    图  6  专利抽取BERT模型体系结构

    图  7  BERT-BiLSTM-CRF命名实体识别模型结构图

    图  8  注意力机制融合句子语义的模型结构

    图  9  注意力机制融合句子语义的实体关系抽取结果

    表  1  句法依存关系

    关系标签描述
    主谓关系SBVsubject-verb
    动宾关系VOBverb-object
    间宾关系IOBindirect-object
    前置宾语FOBfronting-object
    兼语DBLdouble
    定中关系ATTattribute
    状中结构ADVadverbial
    动补结构CMPcomplement
    并列关系COOcoordinate
    介宾关系POBpreposition-object
    左附加关系LADleft-adjunct
    右附加关系RADright-adjunct
    独立结构ISindependent-structure
    核心关系HEDhead
    下载: 导出CSV

    表  2  模型实验结果 %

    Model实验结果
    PRF1
    CRF+依存句法25.1827.8426.44
    BERT46.6743.4344.99
    BERT+BiLSTM+CRF结合注意力与句法关系63.3358.8961.03
    下载: 导出CSV
  • [1] 余丰. 专利摘要的信息抽取研究[D]. 北京: 北京理工大学, 2006.

    YU Feng. Study on information extraction of patent summary[D]. Beijing: Beijing Institute of Technology, 2006.
    [2] 周俏丽, 蔡东风, 张桂平. 面向英文专利文本单语模板的自动抽取方法[J]. 沈阳航空工业学院学报, 2010, 27(4): 37-40.

    ZHOU Qiao-li, CAI Dong-feng, ZHANG Gui-ping. Automatic acquisition approach of monolingual translation template oriented to English patent text[J]. Journal of Shenyang Institute Aeronautica Engineering, 2010, 27(4): 37-40.
    [3] 姜彩红, 乔晓东, 朱礼军. 基于本体的专利摘要知识抽取[J]. 现代图书情报技术, 2009, 2: 23-28.

    JIANG Cai-hong, QIAO Xiao-dong, ZHU Li-jun. Ontology-based patent abstracts’ knowledge extraction[J]. New Technology of Library and Information Service, 2009, 2: 23-28.
    [4] 吴志祥, 王昊, 王密平. 中文专利术语层次关系解析研究[J]. 情报学报, 2017, 4: 40-50.

    WU Zhi-xiang, WANG Hao, WANG Mi-ping. A study on Chinese patent terms hierarchy parse[J]. Journal of the China Society for Scientific and Technical Information, 2017, 4: 40-50.
    [5] 王密平, 王昊, 邓三鸿. 基于CRFs的冶金领域中文专利术语抽取研究[J]. 现代图书情报技术, 2016, 6: 28-36.

    WANG Mi-ping, WANG Hao, DENG San-hong. Extracting Chinese metallurgy patent terms with conditional random fields[J]. New Technology of Library and Information Service, 2016, 6: 28-36.
    [6] 孙凌云. 面向产品概念设计的专利地图技术研究[D]. 杭州: 浙江大学, 2008.

    SUN Ling-yun. Research on patent mapping technology for product conceptual design[D]. Hangzhou: Zhejiang University, 2008.
    [7] GHOULA N, KHELIF K, DIENG K R. Supporting patent mining by using ontology-based semantic annotations[C]//IEEE AVIC/ACM International Conference on Web Intelligence. Fremont: IEEE, 2007: 131-139.
    [8] TSENG Y, LIN C, LIN Y. Text mining techniques for patent analysis[J]. Information Processing & Management, 2007, 43(5): 1216-1247.
    [9] JIN B, TENG H, SHI Y. Chinese patent mining based on sememe statistics and key-phrase extraction[J]. Advanced Data Mining and Applications, 2007, 46(32): 516-523.
    [10] HAN H, ZHU L, ZHANG Z. Extracting hierarchical relationship of scientific and technical terms from unstructured text[J]. Natural Language Engineering, 2014, 25(6): 77-89.
    [11] AJCRES L, YANG Y. Text mining and visualization tools[J]. World Patent Information, 2008(30): 280-293.
  • [1] 张强, 周成华, 张鸿鹄, 赵睿.  空腔石墨烯的盐模板制备及其吸波性能 . 电子科技大学学报, 2024, 53(1): 14-20. doi: 10.12178/1001-0548.2022389
    [2] 翟社平, 李航, 亢鑫年, 杨锐.  融合强化学习的实体关系联合抽取模型 . 电子科技大学学报, 2024, 53(2): 243-251. doi: 10.12178/1001-0548.2023107
    [3] 罗欣, 陈艳阳, 耿昊天, 许文波, 张民.  基于深度强化学习的文本实体关系抽取方法 . 电子科技大学学报, 2022, 51(1): 91-99. doi: 10.12178/1001-0548.2021162
    [4] 周勇, 林瑞, 陆荣国, 吕江泊, 沈黎明, 王广彪, 谭孟, 刘永.  基于倒脊型结构石墨烯偏振无关电光调制器设计 . 电子科技大学学报, 2021, 50(4): 592-597. doi: 10.12178/1001-0548.2021081
    [5] 白创, 张伟, 吕豪, 米莲娜·朱卡诺维奇.  基于石墨烯电极RRAM的混合型PUF指纹电路 . 电子科技大学学报, 2021, 50(4): 508-513, 550. doi: 10.12178/1001-0548.2021023
    [6] 李丽霞, 任卓明, 张子柯.  基于关键词的知识图谱挖掘信息技术学科演化趋势 . 电子科技大学学报, 2020, 49(5): 780-787. doi: 10.12178/1001-0548.2019221
    [7] 王璞, 谭倩, 徐仲之, 鲁恒宇, 林涛.  城市公交网络运行演化分析与瓶颈甄别 . 电子科技大学学报, 2018, 47(3): 455-461. doi: 10.3969/j.issn.1001-0548.2018.03.021
    [8] 王菊, 刘付显.  一种面向动态网络的社团检测与演化分析方法 . 电子科技大学学报, 2018, 47(1): 117-124. doi: 10.3969/j.issn.1001-0548.2018.01.018
    [9] 赵国生, 李光程, 王健.  云计算系统认知生存模型及量化分析 . 电子科技大学学报, 2017, 46(5): 709-715. doi: 10.3969/j.issn.1001-0548.2017.05.012
    [10] 龚森, 胡旻, 钟任斌, 陈晓行, 张平, 赵陶, 刘盛纲.  电子注激励石墨烯表面等离子体激元的研究 . 电子科技大学学报, 2016, 45(1): 71-76. doi: 10.3969/j.issn.1001-0548.2016.01.011
    [11] 王力, 蒋庭君, 石文韬, 宋轶琳, 徐声伟, 蔡新霞.  聚吡咯氧化石墨烯修饰的神经微电极阵列 . 电子科技大学学报, 2015, 44(4): 623-626. doi: 10.3969/j.issn.1001-0548.2015.04.025
    [12] 张瑜, 李涛, 吴丽华, 彭小宁, 覃仁超.  计算机病毒演化模型及分析 . 电子科技大学学报, 2009, 38(3): 419-422. doi: 10.3969/j.issn.1001-0548.2009.03.024
    [13] 吴思楠, 周世杰, 秦志光.  近场通信技术分析 . 电子科技大学学报, 2007, 36(6): 1296-1299.
    [14] 陈光宇, 黄锡滋, 唐小我.  故障树模块化分析系统可靠性 . 电子科技大学学报, 2006, 35(6): 989-992.
    [15] 李翔, 万栋义.  数字下变频中抽取技术研究 . 电子科技大学学报, 2006, 35(4): 471-473,523.
    [16] 葛中全, 杨剑.  中国高等院校专利申请实证研究 . 电子科技大学学报, 2006, 35(2): 285-288.
    [17] 袁丁, 范平志.  电子证据与反拒认协议及形式化分析 . 电子科技大学学报, 2004, 33(5): 531-534.
    [18] 唐小我, 徐玖平, 胡知能.  垄断产品的纵向控制与一体化分析 . 电子科技大学学报, 1999, 28(6): 596-600.
    [19] 徐朴, 林昌禄.  最优极化分析理论基础 . 电子科技大学学报, 1998, 27(4): 390-393.
    [20] 徐朴, 林昌禄.  涂覆型圆柱的散射矩阵及极化分析 . 电子科技大学学报, 1997, 26(4): 370-373.
  • 加载中
图(9) / 表(2)
计量
  • 文章访问数:  5956
  • HTML全文浏览量:  1601
  • PDF下载量:  112
  • 被引次数: 0
出版历程
  • 收稿日期:  2020-03-23
  • 修回日期:  2020-07-01
  • 网络出版日期:  2020-11-25
  • 刊出日期:  2020-11-23

基于改进BERT算法的专利实体抽取研究—以石墨烯为例

doi: 10.12178/1001-0548.2020132
    基金项目:  国家自然科学基金(71874023)
    作者简介:

    李建(1986-),男,博士,主要从事产业创新政策方面的研究

    通讯作者: 刘军,E-mail:lj@uestc.edu.cn
  • 中图分类号: F274

摘要: 实体关系抽取是判断专利新颖性的核心环节,传统的实体关系抽取都是采用串行方式来进行,有很大的局限性。该文利用两种改进的BERT算法研究了专利实体关系抽取的技术演化。一种是将中文特征和句法语义特征相结合的新算法—基于改进的BERT-BiLSTM-CRF命名实体识别算法;另一种是将注意力机制与句法语义特征相结合的新算法—基于注意力机制与语义结合的实体关系抽取算法。最后以石墨烯制备技术为例,利用数值实验说明改进的两种算法能够高效分析专利的内容,揭示石墨烯企业技术的动态演化过程。

English Abstract

李建, 靖富营, 刘军. 基于改进BERT算法的专利实体抽取研究—以石墨烯为例[J]. 电子科技大学学报, 2020, 49(6): 883-890. doi: 10.12178/1001-0548.2020132
引用本文: 李建, 靖富营, 刘军. 基于改进BERT算法的专利实体抽取研究—以石墨烯为例[J]. 电子科技大学学报, 2020, 49(6): 883-890. doi: 10.12178/1001-0548.2020132
LI Jian, JING Fu-ying, LIU Jun. Study on Patent Entity Extraction Based on Improved Bert Algorithms—A Case Study of Graphene[J]. Journal of University of Electronic Science and Technology of China, 2020, 49(6): 883-890. doi: 10.12178/1001-0548.2020132
Citation: LI Jian, JING Fu-ying, LIU Jun. Study on Patent Entity Extraction Based on Improved Bert Algorithms—A Case Study of Graphene[J]. Journal of University of Electronic Science and Technology of China, 2020, 49(6): 883-890. doi: 10.12178/1001-0548.2020132
  • 专利文档中含有大量作者所进行的创新性工作,这些内容所蕴含的知识代表先进技术,对专利文档的分析可以获得专利所研究领域的技术及生产工艺发展情况。但是由于专利文档数量的庞大性,如果每一篇都需要人工分析和信息提取的话,则工作量非常大,同时也会受到操作者本身技术能力的影响,因此采用自动获取技术是专利分析的第一要素。自然语言处理在近些年来成功应用到诸多文档处理相关领域,获得了显著效果。基于实体关系的知识图谱技术也是采用符合人类社会模型认知的方式来深入挖掘实际事物之间的联系,进而完成知识演进。专利文本中核心的文档主要是说明书和权利要求,这两部分包含了专利的大多数信息,权利要求以科学术语定义该专利或专利申请所给予的保护范围。说明书则是对发明或者实用新型的结构、技术要点、使用方法做出清晰、完整的介绍,它包含了背景技术、发明内容、附图说明、具体实施方案等项目。本文将采用两种算法进行专利信息的抽取,实现对专利文本中的核心涉及物及关键工艺的认知。

    在专利知识抽取方面,国内有学者探索了基于规则、模板、机器学习、本体等多种抽取的方法。文献[1]研究了专利摘要信息抽取的技术、步骤,结合词典、规则和统计模型方法,针对隐马尔可夫标注算法进行了合理改进,在抽取结果处理上提出了一套技术关键词识别模型及其算法。文献[2]提出了针对英文专利的,基于模板的自动获取方法。文献[3]提出一个基于本体的中文专利摘要抽取模型。文献[4]在领域专利术语抽取的基础上,研究较大规模术语层次关系的解析,构建了含有层次关系的领域知识本体。文献[5]研究了使用不完备的语料库,在无人工参与的情况下,采用条件随机场的方法对字进行角色的标注,并设计术语识别的模型,取得了较好的效果,从专利中抽取的知识可用于辅助技术或产品创新。文献[6]研究了基于同义词群提取的技术特征,用于外观设计专利的分析。国外在专利标注和知识抽取方面也有研究,文献[7]根据专利文档的结构和语义描述,对专利进行语义标注,帮助生物学家更好的利用专利信息。文献[8]基于文档结构以及专利文档内容的语义结构,利用自然语言和本体技术,对专利进行语义标注,便于对专利检索更好的分析。文中还描述了专利分析人员分析过程中用到的一系列文本挖掘技术方案,包括文本切分、摘要抽取、特征项选择、词语关联、聚类、主题识别和信息映射等。结果证明自动抽取的概要相比其他片段更能表达原来的意思。这些技术有助于提高专利分析中用到的分类、组织、知识分享和现有技术检索。文献[9]提出了一种基于语义要素统计和关键短语抽取的中文专利挖掘方法,用于从中文专利文档中抽取关键短语。该抽取技术基于“HowNet”的语义知识结构,利用统计的方法计算专利文档中的备选短语计算值。实验证明,该方法比单纯的频次统计方法有更高的精确率和召回率。文献[10-11]介绍了一种词间关系抽取的方法,结合模板和统计指标来抽取词间的两种类型的层次关系:“IS-A”和“PART-OF”。

    • 专利实体内容指专利中所应用到的实体,包括化学材料、实验器材等,例如氧化石墨烯、碳纤维、烘箱、真空泵。这些实体都对整个专利的制作流程起着重要作用,而承载着这些实体的就是操作,每篇专利里都会对各种实体进行不同的操作,以此达到不同的目的,同种材料的不同操作方式、不同操作顺序也是一篇专利的创新性和新颖性的体现。对专利的实体内容进行抽取分析,对比各个专利所使用的材料差异和操作差异,再结合对应的评价体系,最终得到专利的创新性和新颖性评价指标。

      实体关系抽取是判断专利新颖性的核心环节,其任务是从大量专利文本数据中抽取出能够表达专利工艺流程的结构化动宾关系,也就是关系双元组。例如以石墨烯制备技术为例,在专利说明书中的发明内容中的工艺流程:<得到,氧化石墨烯分散液>,利用基于字级别的字符串搜索技术在专利中检索到包含此流程的原句为:“将氧化石墨烯(GO)于水中分散,得到氧化石墨烯分散液”。从这句话中得出抽取出来的“得到氧化石墨烯分散液”为此专利工艺流程的其中一步,以此种方法为例,最终可得到整个专利发明内容内的实体关系列表,整个列表又可作为专利的工艺流程序列,最终得到此专利的技术方案。

    • 文本文档是典型的非结构化信息,不能像数据库之类的信息可以通过键值对来进行数据分析和统计,但是文档却不限制文本的结构内容,进而可以承载更多的信息。非结构化文档信息抽取技术就是通过自然语言分析技术来实现对其核心内容的信息获取,其中实体与关系抽取是目前最为成功的技术。目前传统的实体抽取和关系抽取都是采用串行的方式来进行,先完成对实体的识别与提取,然后再分析不同实体之间的关系。

      实体抽取第一步是进行命名实体识别(named entity recognition, NER),目前通用文档中识别的命名实体主要是人物(person, PER)、地点(location, LOC)、机构(organization, ORG)、时间(time, TIME)、数字(number, NUM)、描述(description, DES)和混杂(miscellaneous, MISC)。但是考虑到所需处理的任务,就需要对所识别的实体进行调整。非结构化文档的实体与关系抽取的传统流程为:首先对输入文本进行预处理,预处理主要完成分词、停用词处理和词性标注,获得比较纯粹的文本词语。然后将处理之后的文本输入命名实体识别模型中,在该模块中主要完成对命名实体的识别,一般是采用从前到后的处理过程,根据前后关系和句法分析等方式来对输入的词汇进行判断。在此过程中,词汇的前后顺序也是非常关键的信息。命名识别完成之后就实现了文本的序列标注,该结果可以输出到实体集识别内,也是下一步实体关系识别的输入。关系识别需要对输入的多实体和其顺序标注进行处理,通过学习关系模型,可以获得模型可识别的关系,比如位置关系、工作关系、隶属关系等,流程如图1所示。

      针对石墨烯专利文本,本文采用图2中传统框架完成对专利文本信息的抽取识别。

      图  1  传统实体关系抽取流程

      图  2  基于传统算法的专利中文实体关系抽取框架图

      该框架是基于最为流行的CRF算法模型为基础来进行的。这种方式提升了在预处理阶段分词的准确率,使其可以更精准地识别专利中的词汇。输入专利文档中的语句,通过切词、词性标注以及依存句法分析,由于专利分析中不需要依赖特定词语,所以在此框架中采用类似最大匹配的思想,将目前包含最长字符词的长度信息提供给统计模型。

      句法分析是处理过程中重要的一环,该过程需要精准的完成句子内各词汇之间的依存关系分析,进而可以分析语句的构成和依赖关系。依赖关系分析通过分解句子各词语之间的语义关系来刻画句子语意,并且将语义层面的关系用依赖结构模式展现,其不用对词语进行抽象表达,直接利用词语所处的语义关系结构来表征词汇。句法结构的解析也就是短语结构解析,即分析句子中词汇间的相互联系、相互作用的方式。该框架首先对句子进行分词和词性标注,再进行句法结构分析,将分析结果以句法分析树的结构展示,从而进一步明确每个词汇以及短语在句子结构中承担的作用,帮助识别最有可能与关系特征词构成关系的实体对。本框架所分析句法依存关系如表1所示。

      表 1  句法依存关系

      关系标签描述
      主谓关系SBVsubject-verb
      动宾关系VOBverb-object
      间宾关系IOBindirect-object
      前置宾语FOBfronting-object
      兼语DBLdouble
      定中关系ATTattribute
      状中结构ADVadverbial
      动补结构CMPcomplement
      并列关系COOcoordinate
      介宾关系POBpreposition-object
      左附加关系LADleft-adjunct
      右附加关系RADright-adjunct
      独立结构ISindependent-structure
      核心关系HEDhead
    • BERT是一种新型的语言模型,使用Transformer做encoder,可以用更深的层数,具有更好的并行性,它通过联合调节所有层中的双向transformer来训练预训练深度双向表示。BERT基于所有层中的左、右语境进行联合调整,来预训练深层双向表征,因此,只需要增加一个输出层,就可以对预训练的BERT表征进行微调,为更多的任务创建当前的最优模型,如本节中要解决的实体关系抽取任务。BERT模型结构如图3所示。

      图  3  BERT模型结构

      图中,wi表示由每个参数xi对应转化来的词向量,本文采用embedding的向量方式。embedding层由3种embedding求和而成;在embedding后将组合向量进行编解码运算 (Trm层),之后将每个单词的特征向量 (T)作为结果输出。在embedding计算中,第一个单词是CLS标志,可以用于之后的分类任务,为区别两个句子,用一个特殊标志SEP隔开它们,另外针对不同的句子,把学习到的segment embeddings加到每个token的embedding上面;segment embeddings用来区别两种句子,因为预训练不只做LM (language model)还要做以两个句子为输入的分类任务,position embeddings是学习结果,其结构如图4所示。

      将BERT模型应用到专利文本信息抽取上,需要采用如图5所示的模型。

      图  4  BERT输入表征示意图

      图  5  专利抽取BERT模型体系结构

      此模型的核心步骤分为:

      1)目标实体由基础的语言单元字或词组成 (图中Tk),为了能够定位两个目标实体并将其信息转移到BERT中,在将整个问题投入BERT前,在目标实体前后添加token,即符号“$”和“#”;

      2)通过BERT输出目标实体对应的输出进行定位;

      3)利用BERT输出的[CLS]隐含向量和两个目标实体的隐含向量进行关系分类。

      假设输入的句子为“四川的省会是成都”,将此句子输入进模型的第一层,将会在它的开头添加[CLS]符号,该句子为单句,不需要添加[SEP],BERT模型的输出部分包括3个部分,第一部分为[CLS]标签,第二部分为第一个实体的隐含向量,第三部分为第二个实体的隐含向量。这样第一部分可以保存整个句子的语义内容,后两部分则是保存实体的信息。

      再将识别到的第一个实体前后加入$ \$符号—“[CLS]$ \$四川$ \$的省会是成都”,最后将识别到的第二个实体前后添加#符号—“[CLS]$ \$四川$ \$的省会是#成都#”,两个实体前后添加特殊符号的目的是标识两个实体,让模型能够知道这两个词的特殊性,相当于变相指出两个实体的位置。此时输入的维度为[batch size n, max_length m, hidden size d]。[CLS]位置的输出可以作为句子的向量表示,记作${{{H}}_0}$,维度是$[n,d]$,经过线性变换后添加tanh激活函数得到,${{{W}}_0}$的维度是$[n,d]$,因此${{H}}'_0$的维度就是$[n,d]$b0是实体偏移量,由每个实体在句子中的前后位置决定。[CLS] 表征:该部分为单一向量,因此直接将其输入前馈神经网络中,可表示为:

      $${{H}}'_0 = {{{W}}_0}(\tanh ({{{H}}_0})) + {{{b}}_0}$$ (1)

      除了利用句向量之外,模型还结合了两个实体向量。实体向量通过计算BERT输出的实体各个字向量的平均得到,假设BERT输出的实体1的开始和终止向量为${{{H}}_i}$${{{H}}_j}$。实体2为${{{H}}_k}$${{{H}}_m}$。其中$i$$j$$k$$m$分别为第一个实体的首字符位置、第一个实体的末字符位置、第二个实体的首字符位置、第二个实体的末字符位置。那么实体1和2的向量表示为:

      $${{{e}}_1} = \frac{1}{{j - i + 1}}\sum\limits_{t = i}^j {{{{H}}_t}} $$ (2)
      $${{{e}}_2} = \frac{1}{{m - k + 1}}\sum\limits_{t = k}^m {{{{H}}_t}} $$ (3)

      得到的实体向量也需要经过激活函数和线性层,${{{W}}_1}$${{{W}}_2}$的维度都是$[d,d]$,实体信息为:

      $$ {{H}}'_1{\rm{ = }}{{{W}}_1}{{{e}}_1} + {{{b}}_1} $$ (4)
      $$ {{H}}'_2{\rm{ = }}{{{W}}_2}{{{e}}_2} + {{{b}}_2} $$ (5)

      最后把${{H}}'_0,{{H}}'_1,{{H}}'_2$连接起来得到一个综合向量$[n,3d]$维,输入到线性层并做softmax分类,其中${{{W}}_3}$的维度是[关系数量L,3d],因此${{h}}''$的维度是$[n,L]$,得到每句话的关系类别概率分布为:

      $$ {{{h}}{''}} = {{{W}}_3}[{\rm{concat}}({{H}}'_1,{{H}}'_1,{{H}}'_2)] + {{{b}}_3} $$ (6)
      $$ p = {\rm{soft}}\max ({{{h}}{''}}) $$ (7)

      使用本文改进的BERT模型对专利工艺流程进行提取,提取到的结果噪声较小,具体效果如图6所示。

      图  6  专利抽取BERT模型体系结构

      从图中可以看出,使用BERT进行关系抽取后,整个专利的工艺流程更加清晰合理,去掉了基于CRF和依存句法树的实体关系抽取方法中识别不到的噪声,使结果更加精简且符合逻辑,但是从上图可以看出,虽然此方法比基于CRF和句法依存树的效果更好,但噪声仍然对识别流程产生较大的影响。

    • 双向长度记忆网络采用3层结构来实现最终的抽取功能,字符嵌入层用以完成输入的字符向网络的输入的转换,使其利于后期的识别。Bi-LSTM层利用长短记忆网络来实现文本在序列空间上的关联分析,进而发现合适有价值的命名实体。BiLSTM-CRF模型是将双向长短记忆网络和CRF模型结合起来,即在双向长短记忆网络的Hide层后再加一层CRF,模型结构如图7所示。

      图  7  BERT-BiLSTM-CRF命名实体识别模型结构图

      图7可以看出,此模型是由BERT产出的特征作为输入到双向长短记忆网络中,再通过CRF进行解码。

    • 当前关于实体关系抽取的实现一般还是基于统计学方法与模式匹配,如前面提到的,先用NLP处理工具对词语和句子进行提取分析,再使用词与词之间的联系进行句法分析,最后抽取出目标实体和关系。传统的关系抽取方法效果虽然不错,但是它不仅需要花费大量的人工成本,而且容易出现依存关系不全以及关系混乱等错误,影响后续实验结果。除此之外,使用NLP处理工具提取出来的词汇信息往往会出错,如将名词动词识别错误,这些错误特征会对实体关系抽取的结果产生不利影响。近年来,深度神经网络在自然语言处理领域已经取得了许多突破性的成果,使得越来越多的研究者开始关注将深度学习与实体关系抽取结合的应用。

      本节提出了一种基于注意力机制融合句子语义的实体关系抽取方法。结合汉语语言的特性,通过句子语义特征,分析句子语义相似性,构建句子特征表示并输入到模型,如图8所示。

      图  8  注意力机制融合句子语义的模型结构

      图8所示的模型结构,输入一个句子,首先将句子进行分词,再输入进BERT标注后,将训练后的分布式词向量输入到BiLSTM中获取句子语义信息,引入字级别的注意力机制来关注句子中的重要信息,通过注意力机制赋给字权重,自动获取对实体关系抽取有较大影响力的字节,最后输入权重向量通过softmax对关系进行分类处理,最终结果如图9所示。

      图  9  注意力机制融合句子语义的实体关系抽取结果

    • 针对本文提及的基于改进的BERT-BiLSTM-CRF命名实体识别和注意力与句法结合的实体关系识别所形成的整体框架,本文采用精确率(P)、召回率(R)和$F1$值来进行上述算法的抽取效果,定义为:

      $$P = \frac{{{N_r}}}{{{N_p}}}$$ (8)
      $$R = \frac{{{N_r}}}{{{N_s}}}$$ (9)
      $$F1 = \frac{{2PR}}{{P + R}}$$ (10)

      式中,${N_r}$表示预测正确的动宾关系的句子数目;${N_p}$表示待预测的句子数目;${N_s}$表示标准动宾结果的句子数目。

      表2中汇总了本文中各模型的实验结果,从中可以看出无论从精确率、召回率和F1值来看,基于改进的BERT-BiLSTM-CRF命名实体识别和注意力与句法结合的实体关系识别算法效果都要优于CRF+依存句法和单纯的BERT算法。具体来讲,CRF+依存句法计算出的精确率、召回率和F1值分别为改进的BERT-BiLSTM-CRF算法效果的39.8%,47.2%和43.3%;BERT算法的精确率、召回率和F1值为改进的BERT-BiLSTM- CRF算法效果的73.7%。

      表 2  模型实验结果 %

      Model实验结果
      PRF1
      CRF+依存句法25.1827.8426.44
      BERT46.6743.4344.99
      BERT+BiLSTM+CRF结合注意力与句法关系63.3358.8961.03
    • 专利内容的创新性和新颖性是研究专利在常规普适性内容和突破性研究的评价基础,构建专利知识评价网络来为评估其内容新颖性和对后期该领域的发展所形成的突破性贡献奠定基础。本文重点描述了所采用的基于专利实体和实体关系来完成对专利的内涵描述,并采用前后向网络构建的算法来计算每一个评价因子的定量分析,进而实现对专利的整体分析与评估。以目前国内石墨烯制备专利为例,应用所构建的专利创新指数进行了分析。基于专利实体和实体关系来完成对专利的内涵描述,并采用前后向网络构建和相似性分析的算法来计算每一个评价因子的定量分析。目前的研究是在当前静态数据库的基础上划分训练数据和测试数据,对于未来时间序列上的动态分析方法是技术创新管理领域的另一个重要问题。通过动态的专利分析技术,实现专利演进过程的实时分析与刻画,是接下来技术创新管理的重点发展方向。通过动态研究,能够更准确地反映技术创新的全过程。另外,本文的研究注重专利文本的挖掘使用,但是对多源大数据融合的技术路径分析尚未完成。未来,融合科技数据、商业数据、政策环境数据和企业报表数据等商业与市场数据的技术分析是一个重要研究方向。通过大数据的融合研究能够为技术创新提供更准确的分析维度。

      本文工作得到重庆工商大学引进高层次人才科研启动项目(1956053)的支持,在此表示感谢。

参考文献 (11)

目录

    /

    返回文章
    返回