留言板

尊敬的读者、作者、审稿人, 关于本刊的投稿、审稿、编辑和出版的任何问题, 您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

姓名
邮箱
手机号码
标题
留言内容
验证码

基于梯度相似性的自动作文评分多主题联合预训练方法

李晨亮 吴鸿涛

李晨亮, 吴鸿涛. 基于梯度相似性的自动作文评分多主题联合预训练方法[J]. 电子科技大学学报, 2022, 51(4): 558-564. doi: 10.12178/1001-0548.2022061
引用本文: 李晨亮, 吴鸿涛. 基于梯度相似性的自动作文评分多主题联合预训练方法[J]. 电子科技大学学报, 2022, 51(4): 558-564. doi: 10.12178/1001-0548.2022061
LI Chenliang, WU Hongtao. A Gradient-Similarity Based Multi-Topic Jointly Pre-Training Method for Automated Essay Scoring[J]. Journal of University of Electronic Science and Technology of China, 2022, 51(4): 558-564. doi: 10.12178/1001-0548.2022061
Citation: LI Chenliang, WU Hongtao. A Gradient-Similarity Based Multi-Topic Jointly Pre-Training Method for Automated Essay Scoring[J]. Journal of University of Electronic Science and Technology of China, 2022, 51(4): 558-564. doi: 10.12178/1001-0548.2022061

基于梯度相似性的自动作文评分多主题联合预训练方法

doi: 10.12178/1001-0548.2022061
基金项目: 国家自然科学基金(61872278)
详细信息
    作者简介:

    李晨亮 (1983 − ),男,博士,教授,主要从事信息检索、数据挖掘、机器学习、社交网络分析及自然语言处理等方面的研究

    通讯作者: 李晨亮,E-mail:cllee@whu.edu.cn
  • 中图分类号: TP391.1

A Gradient-Similarity Based Multi-Topic Jointly Pre-Training Method for Automated Essay Scoring

  • 摘要: 提出了一种基于梯度相似性的自动加权方法,用于作文评分的多主题联合预训练。在预训练阶段同时使用多个主题的数据,通过计算外部主题的训练样本的梯度向量与目标主题的梯度向量之间的相似度作为该样本的损失权重。将深度学习与特征工程相结合,手工设计了3类特征。在公开数据集上进行对比实验表明,与现有的基线模型相比,提出的多主题联合预训练方法和手工特征均能有效提升作文评分模型的评分准确性。
  • 图  1  作文评分模型结构

    图  2  Transformer编码器结构

    表  1  手工设计的特征

    特征类型特征介绍
    统计特征 单词数,去重之后的单词数,句子数,句子的平均词数,不同长度的单词数量,各种连接词的数量,拼写错误的数量
    语法特征 不同类型从句的数量,包括主语从句、宾语从句、状语从句、定语从句、同位语从句等
    可读性特征 Flesch-Kincaid可读性分数[16]
    下载: 导出CSV

    表  2  ASAP数据集的统计结果

    主题编号作文数体裁作文平均长度分数范围
    11 783议论文3502~12
    21 800议论文3501~6
    31 726回复文1500~3
    41 772回复文1500~3
    51 805回复文1500~4
    61 800回复文1500~4
    71 569记叙文2500~30
    8723记叙文6500~60
    下载: 导出CSV

    表  3  不同方法在ASAP数据集的8个主题上的结果

    方法主题1主题2主题3主题4主题5主题6主题7主题8平均
    LSTM0.5820.5170.5160.7020.6040.6700.6610.5660.602
    BiLSTM0.5910.4910.4980.7020.6430.6920.6830.5630.608
    EASE(SVR)0.7810.6300.6210.7490.7820.7710.7270.5340.699
    CNN+LSTM[3]0.8210.6880.6940.8050.8070.8190.8080.6440.761
    LSTM-CNN-Att[5]0.8220.6820.6720.8140.8030.8110.8010.7050.764
    RL1[10]0.7660.6590.6880.7780.8050.7910.7600.5450.724
    SKIPFlOW[9]0.8320.6840.6950.7880.8150.8100.8000.6970.764
    HISK+BOSWE[17]0.8450.7290.6840.8290.8330.8300.8040.7290.785
    BERT0.8060.6800.6980.8080.8100.8140.8350.7050.770
    R2BERT[13]0.8030.6920.6940.8110.8110.8110.8300.7380.774
    All-prompt0.8190.7100.6860.8300.8380.8340.8290.7400.786
    本文方法0.8350.7210.7020.8410.8420.8460.8370.7490.797
    下载: 导出CSV

    表  4  比较使用不同特征的结果

    方法主题1主题2主题3主题4主题5主题6主题7主题8平均
    Ours(none)0.8110.7010.7010.8330.8350.8340.8220.7410.785
    Ours(st)0.8320.7160.7000.8350.8360.8420.8290.7450.792
    Ours(st+gm)0.8360.7180.6990.8450.8420.8450.8380.7490.797
    Ours(all)0.8350.7210.7020.8410.8420.8460.8370.7490.797
    下载: 导出CSV
  • [1] ATTALI Y, BURSTEIN J. Automated essay scoring with e-rater[r]v.2[J]. Journal of Technology, Learning, and Assessment, 2006, 4(3): 1-21.
    [2] PAGE E B. The imminence of.. grading essays by computer[J]. The Phi Delta Kappan, 1966, 47(5): 238-243.
    [3] TAGHIPOU K, NG H T. A neural approach to automated essay scoring[C]//Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing. Austin, Texas: Association for Computational Linguistics, 2016: 1882-1891.
    [4] DONG F, ZHANG Y. Automatic features for essay scoring: An empirical study[C]//Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing. Austin, Texas: Association for Computational Linguistics, 2016, 435: 1072-1077.
    [5] DONG F, ZHANG Y, YANG J. Attention-based recurrent convolutional neural network for automatic essay scoring[C]//CoNLL. Vancouver: Association for Computational Linguistics, 2017: 153-162.
    [6] ALIKANIOTIS D, YANNAKOUDAKIS H, REI M. Automatic text scoring using neural networks[C]// Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics. Berlin: Association for Computational Linguistics, 2016: 715-725.
    [7] COLLOBERT R, WESTON J. A unified architecture for natural language processing: Deep neural networks with multitask learning[C]//Proceedings of the 25th International Conference on Machine Learning. New York: Association for Computing Machinery, 2008: 160-167.
    [8] SAK H, SENIOR A, BEAUFAYS F. Long short-term memory based recurrent neural network architectures for large vocabulary speech recognition[EB/OL]. [2014-02-05]. https://arxiv.org/abs/1402.1128.
    [9] TAY Y, PHAN M, TUAN L A, et al. SkipFlow: Incorporating neural coherence features for end-to-end automatic text scoring[C]//Proceedings of the AAAI Conference on Artificial Intelligence. California: AAAI Press, 2018: 5948-5955.
    [10] WANG Y, WEI Z, ZHOU Y, et al. Automatic essay scoring incorporating rating schema via reinforcement learning[C]//Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing. Brussels: [s.n.], 2018: 791-797.
    [11] DEVLIN J, CHANG M W, LEE K, et al. Bert: Pre-training of deep bidirectional transformers for language understanding[C]//Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers). Minneapolis, Minnesota: [s.n.], 2018: 4171-4186.
    [12] UTO M, XIE Y, UENO M. Neural automated essay scoring incorporating handcrafted features[C]//Proceedings of the 28th International Conference on Computational Linguistics. Barcelona: International Committee on Computational Linguistics, 2020: 6077-6088.
    [13] YANG R, CAO J, WEN Z, et al. Enhancing automated essay scoring performance via fine-tuning pre-trained language models with combination of regression and ranking[C]//Findings of the Association for Computational Linguistics: EMNLP 2020. [S.l.]: Association for Computational Linguistics, 2020: 1560-1569.
    [14] VASWANI A, SHAZEER N, PARMAR N, et al. Attention is all you need[C]//Proceedings of the 31st International Conference on Neural Information Processing Systems. New York: Curran Associates Inc, 2017: 6000-6010.
    [15] HE K, ZHANG X, REN S, et al. Deep residual learning for image recognition[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Las Vegas, NV: IEEE, 2016: 770-778.
    [16] FLESCH R. A new readability yardstick[J]. Journal of Applied Psychology, 1948, 32(3): 221-233. doi:  10.1037/h0057532
    [17] COZMA M, BUTNARU A M, IONESCU R T. Automated essay scoring with string kernels and word embeddings[C]//Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics. Melbourne: Association for Computational Linguistics, 2018: 503-509.
    [18] CHANG S, ZHANG Y, HAN W, et al. Dilated recurrent neural networks[C]//Proceedings of the 31st International Conference on Neural Information Processing Systems. CA: Curran Associates Inc, 2017: 77-87.
    [19] KE Z, NG V. Automated essay scoring: A survey of the state of the art[C]//Proceedings of the 28th International Joint Conference on Artificial Intelligence Survey Track. Macao, China: IJCAI, 2019: 6300-6308.
  • [1] 吴楠楠, 杨宵晗, 刘文皓, 常心怡, 郭呈银, 王振.  非对称深度在线哈希 . 电子科技大学学报, 2024, 53(): 1-13. doi: 10.12178/1001-0548.2023170
    [2] 王奇, 钱伟中, 雷航, 王旭鹏.  基于关键特征增强机制的3D人脸识别 . 电子科技大学学报, 2024, 53(2): 252-258. doi: 10.12178/1001-0548.2023012
    [3] 马文壮, 游可唯, 张胤, 周阳, 张丽.  基于深度学习的微纳结构光谱设计研究进展 . 电子科技大学学报, 2024, 53(5): 641-654. doi: 10.12178/1001-0548.2024196
    [4] 章坚武, 戚可寒, 章谦骅, 孙玲芬.  车辆边缘计算中基于深度学习的任务判别卸载 . 电子科技大学学报, 2024, 53(1): 29-39. doi: 10.12178/1001-0548.2022376
    [5] 郭磊, 林啸宇, 王勇, 陈正武, 常伟.  基于深度学习的直升机旋翼声信号检测与识别一体化算法 . 电子科技大学学报, 2023, 52(6): 925-931. doi: 10.12178/1001-0548.2023108
    [6] 郭峰, 陈中舒, 代久双, 吴云峰, 刘军, 张昌华.  基于动态先验特征的包覆药多类型外观缺陷深度检测框架 . 电子科技大学学报, 2023, 52(6): 872-879. doi: 10.12178/1001-0548.2022326
    [7] 罗欣, 陈艳阳, 耿昊天, 许文波, 张民.  基于深度强化学习的文本实体关系抽取方法 . 电子科技大学学报, 2022, 51(1): 91-99. doi: 10.12178/1001-0548.2021162
    [8] 何凯, 刘坤, 沈成南, 李宸.  基于相似图像配准的图像修复算法 . 电子科技大学学报, 2021, 50(2): 207-213. doi: 10.12178/1001-0548.2020327
    [9] 吴劲, 陈树沛, 杨庆, 周帆.  基于图神经网络的用户轨迹分类 . 电子科技大学学报, 2021, 50(5): 734-740. doi: 10.12178/1001-0548.2020435
    [10] 程云飞, 叶娅兰, 侯孟书, 何文文, 李云霞.  面向可穿戴生理信号的压缩感知实时重构 . 电子科技大学学报, 2021, 50(1): 36-42. doi: 10.12178/1001-0548.2020268
    [11] 王瑞, 崔佳梅, 张越, 郑文.  基于图网络的集群运动预测研究 . 电子科技大学学报, 2021, 50(5): 768-773. doi: 10.12178/1001-0548.2021107
    [12] 潘侃, 尹春林, 王磊, 陈端兵.  基于特征工程的重要节点挖掘方法 . 电子科技大学学报, 2021, 50(6): 930-937. doi: 10.12178/1001-0548.2021106
    [13] 杨旺功, 淮永建, 张福泉.  基于Gabor及深度神经网络的葡萄种子分类 . 电子科技大学学报, 2020, 49(1): 131-138. doi: 10.12178/1001-0548.2019164
    [14] 邹昆, 王伟灿, 董帅, 李文生.  基于堆叠沙漏网络的量体特征点定位 . 电子科技大学学报, 2020, 49(5): 709-717. doi: 10.12178/1001-0548.2019122
    [15] 吴涢晖, 赵子天, 陈晓雷, 邹士亚.  大气低频声信号识别深度学习方法研究 . 电子科技大学学报, 2020, 49(5): 758-765. doi: 10.12178/1001-0548.2019297
    [16] 邓钰, 雷航, 李晓瑜, 林奕欧.  用于目标情感分类的多跳注意力深度模型 . 电子科技大学学报, 2019, 48(5): 759-766. doi: 10.3969/j.issn.1001-0548.2019.05.016
    [17] 邵杰, 黄茜, 曹坤涛.  基于深度学习的人体解析研究综述 . 电子科技大学学报, 2019, 48(5): 644-654. doi: 10.3969/j.issn.1001-0548.2019.05.001
    [18] 林奕欧, 雷航, 李晓瑜, 吴佳.  自然语言处理中的深度学习:方法及应用 . 电子科技大学学报, 2017, 46(6): 913-919. doi: 10.3969/j.issn.1001-0548.2017.06.021
    [19] 李彦冬, 雷航, 郝宗波, 唐雪飞.  基于多尺度显著区域特征学习的场景识别 . 电子科技大学学报, 2017, 46(3): 600-605. doi: 10.3969/j.issn.1001-0548.2017.03.020
    [20] 陈姝, 梁文章.  结合特征点匹配及深度网络检测的运动跟踪 . 电子科技大学学报, 2016, 45(2): 246-251.
  • 加载中
图(2) / 表(4)
计量
  • 文章访问数:  5656
  • HTML全文浏览量:  1896
  • PDF下载量:  46
  • 被引次数: 0
出版历程
  • 收稿日期:  2022-02-25
  • 修回日期:  2022-03-30
  • 录用日期:  2022-04-07
  • 网络出版日期:  2022-07-11
  • 刊出日期:  2022-07-09

基于梯度相似性的自动作文评分多主题联合预训练方法

doi: 10.12178/1001-0548.2022061
    基金项目:  国家自然科学基金(61872278)
    作者简介:

    李晨亮 (1983 − ),男,博士,教授,主要从事信息检索、数据挖掘、机器学习、社交网络分析及自然语言处理等方面的研究

    通讯作者: 李晨亮,E-mail:cllee@whu.edu.cn
  • 中图分类号: TP391.1

摘要: 提出了一种基于梯度相似性的自动加权方法,用于作文评分的多主题联合预训练。在预训练阶段同时使用多个主题的数据,通过计算外部主题的训练样本的梯度向量与目标主题的梯度向量之间的相似度作为该样本的损失权重。将深度学习与特征工程相结合,手工设计了3类特征。在公开数据集上进行对比实验表明,与现有的基线模型相比,提出的多主题联合预训练方法和手工特征均能有效提升作文评分模型的评分准确性。

English Abstract

李晨亮, 吴鸿涛. 基于梯度相似性的自动作文评分多主题联合预训练方法[J]. 电子科技大学学报, 2022, 51(4): 558-564. doi: 10.12178/1001-0548.2022061
引用本文: 李晨亮, 吴鸿涛. 基于梯度相似性的自动作文评分多主题联合预训练方法[J]. 电子科技大学学报, 2022, 51(4): 558-564. doi: 10.12178/1001-0548.2022061
LI Chenliang, WU Hongtao. A Gradient-Similarity Based Multi-Topic Jointly Pre-Training Method for Automated Essay Scoring[J]. Journal of University of Electronic Science and Technology of China, 2022, 51(4): 558-564. doi: 10.12178/1001-0548.2022061
Citation: LI Chenliang, WU Hongtao. A Gradient-Similarity Based Multi-Topic Jointly Pre-Training Method for Automated Essay Scoring[J]. Journal of University of Electronic Science and Technology of China, 2022, 51(4): 558-564. doi: 10.12178/1001-0548.2022061
  • 自动作文评分(automated essay scoring, AES)是自然语言处理领域的一项重要任务,目标是采用自动化的方法来评估作文的写作质量并给作文评分。自动作文评分系统在教育领域有着广阔的应用前景,如托福考试的写作题判卷就使用了机器判卷系统E-rater[1]。最早的AES系统可以追溯到1966年开发的Project Essay Grader系统[2],并在此后一直备受关注。早期的AES系统主要依赖手工提取的特征,包括长度特征、词汇特征、句法特征及语义特征等类别。然而,手工提取特征费时费力,还可能需要专家的参与。

    随着深度学习技术的兴起,目前主流的AES系统大多是基于深度神经网络,或者神经网络与特征工程相结合的方式来实现。文献[3]最早尝试使用神经网络来构建AES系统,通过卷积神经网络(convolutional neural network, CNN)和循环神经网络(recurrent neural network, RNN)来学习作文的向量表征,再使用全连接层来预测作文分数。文献[4]对作文的层次结构进行建模,分别使用一个单词级的CNN+池化层来学习句子表示,以及一个句子级的CNN+池化层用于根据句子表示来学习全文的表示。文献[5]在文献[4]的基础上引入了注意力机制,来区分不同词和不同句子的重要性,并且通过实验证明CNN更适合对句子建模,RNN更适合对全文建模。文献[6]从词向量入手,首先在C&W词向量模型[7]的基础上增加作文评分任务来学习任务增强的词向量,然后将训练好的词向量输入两层双向LSTM网络[8]学习预测作文分数。文献[9]使用神经张量网络对LSTM不同时间步的隐状态向量之间的关系进行建模,以提升对作文连贯性的表达能力。以上工作都是将作文评分任务视为一个回归任务,损失函数为模型预测分数和人工标注分数之间的均方误差(mean-square error, MSE)。文献[10]将自动作文评分看作一项分类任务,使用强化学习来解决,将模型与人工专家评分之间的kappa一致性系数作为agent的奖励值。最新的工作开始在作文评分任务中应用大规模预训练语言模型(如BERT[11])。文献[12]将特征工程与BERT相结合用于作文评分,使用长度特征、句法特征、词语特征和可读性特征4类特征,将特征向量与神经网络模型输出的作文向量拼接后输入全连接层预测分数。文献[13]提出了一个基于BERT的AES方法,将作文评分同时视为回归任务和排序任务,使用一个随训练过程动态调整的权重来平衡回归损失和排序损失。大规模预训练语言模型的应用已经将评分准确性提升到更高的水平。

    基于神经网络的模型摆脱了对手工设计特征的依赖。然而,深层神经网络需要大量数据来训练才能发挥其强大的学习能力。但是,自动作文评分任务面临较严重的数据不足的问题,因为现有的AES数据集由多个主题(即题目)组成,每个主题下只有较少量的样本。目前的AES方法大多是单独考虑一个主题的,即分别用每个主题的训练数据训练一个模型,该模型只用于对该主题的作文进行评分。这些方法只使用目标主题的少量训练样本,而不利用剩余其他主题的样本。本文通过实验证明,引入外部主题的样本来增加训练数据量能进一步提升模型的表现。考虑到不同主题之间存在差异,直接加入其他主题的训练样本,训练模型会引入训练噪声,为此本文提出了一种基于梯度相似性的自动加权方法。该方法的训练包含预训练和微调两个阶段。在预训练阶段,同时使用多个主题的作文数据来训练模型。对于其他主题的训练样本,计算该样本的梯度向量与目标主题的梯度向量之间的相似度作为该样本的损失权重。在微调阶段,使用目标主题的训练数据来微调模型。最后,将训练好的模型用于对目标主题的测试样本进行评分。相比于传统的单主题AES方法,本文方法引入了其他主题的训练样本,有效缓解了数据不足的问题,并且基于梯度相似性进行加权,降低了直接使用其他领域的样本带来的训练噪声。此外,本文还将神经网络与特征工程相结合,手工设计了3类特征,进一步提升了模型的评分表现。在公开数据集上进行的对比实验表明,与传统的基于单主题样本的方法相比,本文提出的多主题联合预训练方法能有效提升AES模型的评分准确性,结合特征工程后能实现进一步的提升。

    • 本文模型基于预训练BERT实现,模型结构如图1所示。BERT是由谷歌提出的大规模预训练语言模型,基于Transformer网络实现[14],由多个Transformer编码器层堆叠组成。每个Transformer层包含一个多头自注意力模块和前馈神经网络,并且使用残差连接[15]将输入和输出结合。Transformer的这种结构能有效抽取文本的特征表示,因此在自然语言处理领域得到广泛应用。原始的BERT分为BERT-base和BERT-large两个版本,base版本包含12个Transformer编码器层,每层的注意力头数为12个,总的参数量约1.1亿。本文采用BERT-base来构建作文评分模型。

      图  1  作文评分模型结构

      给定一篇作文$ s $,首先通过BERT的分词器将其转化为子词(sub-token)序列,并在序列开头和结尾分别插入“[CLS]”和“[SEP]”两个特殊词:

      $$ s = [{s_{[{\text{CLS}}]}},{s_1},\cdots,{s_N},{s_{[{\text{SEP}}]}}] $$ (1)

      然后通过词向量层转换为词向量序列:

      $$ x = [{x_{[{\text{CLS}}]}},{x_1},\cdots,{x_N},{x_{[{\text{SEP}}]}}] $$ (2)

      再将x输入到Transformer编码器层。每个编码器层由一个多头自注意力模块和一个前馈神经网络组成,如图2所示。

      图  2  Transformer编码器结构

      多头自注意力模块将输入的向量序列组成的矩阵${\boldsymbol{X}} \in {\mathbb{R}^{L \times d}}$($ L $是序列长度,$ d $是向量维度)映射到多个不同的语义空间进行自注意力操作,抽取不同方面的语义特征。对于每个自注意力头,首先将$ {\boldsymbol{X}} $分别经过3个不同的线性变换得到$ {\boldsymbol{Q}} $$ {\boldsymbol{K}} $$ {\boldsymbol{V}} $这3个矩阵,然后计算自注意力头的输出:

      $$ {{\rm{Att}}} ({\boldsymbol{Q}},{\boldsymbol{K}},{\boldsymbol{V}}) = {\text{softmax}}(\frac{{{\boldsymbol{Q}}{{\boldsymbol{K}}^{\rm{T}}}}}{{\sqrt {d/h} }}){\boldsymbol{V}} $$ (3)

      式中,$ h = 12 $是注意力头的数量;${\boldsymbol{Q}}{{\boldsymbol{K}}^{\rm{T}}} \in {\mathbb{R}^{L \times L}}$计算每个词对序列中所有词的注意力分数;使用${\text{softmax}}( \cdot )$函数将注意力分数归一化为权重,再将注意力权重乘上${\boldsymbol{V}}$得到自注意力模块的输出。

      然后,将12个自注意力头的输出拼接后再经过一层线性变换得到多头自注意力层的最终输出:

      $$ {\boldsymbol{Z}} = {{\rm{Concat}}} ({\text{At}}{{\text{t}}_1},{\text{At}}{{\text{t}}_2},\cdots,{\text{At}}{{\text{t}}_h}){{\boldsymbol{W}}_l} + {{\boldsymbol{b}}_l} $$ (4)

      式中,$ {{\boldsymbol{W}}_l} $${{\boldsymbol{b}}_l}$是参数矩阵和偏置向量。

      然后通过残差连接将$ {\boldsymbol{Z}} $$ {\boldsymbol{X}} $相加,再进行层归一化操作。将结果输入到后面的全连接前馈神经网络$ {\text{FFN}} $中。FFN具有相同的残差连接和层归一化机制,FFN的最终输出将传递给下一个编码器模块。

      经过$ M = 12 $个编码器模块后,BERT输出一个隐状态向量序列:

      $$ {\boldsymbol{H}} = [{h_{[{\text{CLS}}]}},{h_1},\cdots,{h_N},{h_{[{\text{SEP}}]}}] $$ (5)

      最后,${\boldsymbol{r}} = {h_{[{\text{CLS}}]}}$被用作作文的表示向量。将${\boldsymbol{r}}$与通过特征工程抽取的人工特征向量${\boldsymbol{f}}$(将在下一节介绍)拼接后输入预测层(两层的全连接网络),然后输出最终的预测分数$ \hat y $

      $$ a = \tanh ({{\rm{Concat}}} ({\boldsymbol{r}},{\boldsymbol{f}}){{\boldsymbol{W}}_0} + {{\boldsymbol{b}}_0}) $$ (6)
      $$ \hat y = \sigma (a{{\boldsymbol{W}}_1} + {{\boldsymbol{b}}_1}) $$ (7)

      式中,$ \sigma $是sigmoid激活函数;$ \hat y \in (0,1) $。在模型的推理阶段,将$ \hat y $缩放到作文的分数区间即得到预测的作文分数。

      本文将作文评分视为回归任务,因此损失函数为预测分数$ \hat y $与归一化后的人工评分$ y $之间的均方误差:

      $$ L = \frac{1}{m}\sum\limits_{i = 1}^m {{{({{\hat y}_i} - {y_i})}^2}} $$ (8)

      式中,$ m $是一批样本的样本数。

    • 为了进一步增强作文评分的准确性和可解释性,本文将神经网络与手工设计的特征相结合,设计了3类特征,如表1所示。其中,Flesch-Kincaid(FK)可读性分数是衡量文章是否易于理解的指标,包括FK可读性分数(Flesch-Kincaid reading ease formula)和FK可读性年级水平(Flesch-Kincaid grade level formula)两个指标。FK可读性分数(s)和FK年级水平(g)的计算公式分别为:

      $$ s = 206.835 - 1.015a - 84.6b $$ (9)
      $$ g = 0.39a + 11.8b - 15.59 $$ (10)

      式中,$a$$b$ 分别指该文章中句子的平均词数以及单词的平均音节数;FK可读性分数在0~100之间,分数越高表示文章越容易理解。一般来说,分数在60分以上即可视为可读性较好。FK年级水平反映的是要能理解这篇文章至少需要达到的美国学校年级。FK年级水平越高,说明文章更难理解。

      表 1  手工设计的特征

      特征类型特征介绍
      统计特征 单词数,去重之后的单词数,句子数,句子的平均词数,不同长度的单词数量,各种连接词的数量,拼写错误的数量
      语法特征 不同类型从句的数量,包括主语从句、宾语从句、状语从句、定语从句、同位语从句等
      可读性特征 Flesch-Kincaid可读性分数[16]

      将抽取的特征值按照最小−最大归一化方法缩放为介于[0,1]的值,然后将所有特征拼接为一个特征向量${\boldsymbol{f}}$,与神经网络抽取的表示向量$ {\boldsymbol{r}} $拼接后输入到预测层预测分数。

    • 公开的作文评分数据集由多个主题构成,每个主题下平均只有大约一千篇作文,这样的数据量用来训练深层神经网络模型容易造成过拟合,限制了模型的泛化能力。为此,本文提出一种基于梯度相似性来自动加权的多主题联合预训练的方法。模型的训练分为两个阶段:预训练和微调阶段。在预训练阶段,使用所有主题的全部训练样本来训练模型;在微调阶段,只使用目标主题的样本来对模型进行精调训练。

      假设作文评分数据集$ D $一共有n个主题,现在需要训练一个模型用于对其中一个主题的作文进行评分,称该主题为目标主题。将目标主题的训练集记为$ {D_t} $,其他主题组成的混合训练集记为$ {D_o} $

      考虑到不同主题之间存在差异,直接使用其他主题的训练样本未必能获得较大收益。本文提出根据梯度相似性来对其他主题的样本进行加权。首先根据式(8)计算目标主题的样本的平均损失$ {L_t} $,然后计算$ {L_t} $对模型参数$ \theta $的梯度向量${{\boldsymbol{g}}_t} = {\nabla _\theta }{L_t}$,将其称为标准梯度。然后对一个来自其他主题的训练样本$ {b_i} $计算其损失$ {L_i} $,并求梯度向量${{\boldsymbol{g}}_i} = {\nabla _\theta }{L_i}$。由于梯度向量反映了模型优化的方向,本文假设,如果一个样本产生的梯度方向与标准梯度方向越接近,则该样本与目标主题越“接近”,或者说产生的优化效果与目标主题的样本产生的效果越相似。于是,计算${{\boldsymbol{g}}_i}$${{\boldsymbol{g}}_t}$之间的余弦相似度:

      $$ {\text{sim}}({{\boldsymbol{g}}_t},{{\boldsymbol{g}}_i}) = \frac{{{\boldsymbol{g}}_t^{\rm{T}}{{\boldsymbol{g}}_i}}}{{||{{\boldsymbol{g}}_t}|{|_2}||{{\boldsymbol{g}}_i}|{|_2}}} $$ (11)

      如果${\text{sim}}({{\boldsymbol{g}}_t},{{\boldsymbol{g}}_i}) > 0$,则认为该样本对模型优化有一定的正面效果,将${\text{sim}}({{\boldsymbol{g}}_t},{{\boldsymbol{g}}_i})$作为该样本的损失权重。于是,第i个其他主题的样本的权重为:

      $$ {{\boldsymbol{w}}_i} = {\text{relu}}({\text{sim}}({{\boldsymbol{g}}_t},{{\boldsymbol{g}}_i})) $$ (12)

      完整的训练过程如下:

      1) 从$ {D_t} $$ {D_o} $中分别采样一批样本记为$ {B_t} $$ {B_o} $

      2) 根据式(8)计算$ {B_t} $的平均损失$ L({B_t}) $,并求得其梯度向量${{\boldsymbol{g}}_t}$

      3) 对$ {B_o} $中的每个样本$ {b_i} $,计算对应损失$ L({b_i}) $,并求梯度向量${{\boldsymbol{g}}_i}$,根据式(12)求得权重$ {{\boldsymbol{w}}_i} $

      4) 按下式计算总的损失,并更新模型参数

      $$ L = L({B_t}) + \frac{1}{K}\sum\limits_{i = 1}^K {{{\boldsymbol{w}}_i}L({b_i})} $$ (13)

      5) 重复前4步直至训练收敛。

      预训练完成后,再用目标主题的样本对模型微调训练,然后在目标主题测试集上评估模型表现。

    • 本文在ASAP作文评分数据集(https://www.kaggle.com/c/asap-aes/data)上进行实验。ASAP数据集是目前公开的最大、最常用的作文评分数据集,被广泛用于评测AES模型的评分准确性。ASAP数据集由8个主题的子集构成,包含3种作文体裁:记叙文、议论文和回复类作文。数据集的统计结果如表2所示。

      表 2  ASAP数据集的统计结果

      主题编号作文数体裁作文平均长度分数范围
      11 783议论文3502~12
      21 800议论文3501~6
      31 726回复文1500~3
      41 772回复文1500~3
      51 805回复文1500~4
      61 800回复文1500~4
      71 569记叙文2500~30
      8723记叙文6500~60
    • 本文比较了以下主流的基线方法:1) EASE;2) LSTM、BiLSTM;3) CNN-LSTM[3];4) NN-LSTM-Att[5];5) RL1[10];6) SKIPFLOW[9];7) HISK+BOSWE[17];8) R2BERT[13];9) BERT。

      其中,1)和7)是传统统计学习方法,其余是神经网络模型。EASE是一个开源的作文评分系统(https://github.com/edx/ease),使用手工设计的特征(如长度特征、词袋特征等)来训练机器学习算法,如SVM,进行评分预测。HISK+BOSWE分别使用直方图相交字符串核(histogram intersection string kernel, HISK)和BOSWE词向量来构造核矩阵,并将两个核矩阵结合后训练一个ν-SVR模型;LSTM、BiLSTM表示分别训练一个两层的LSTM和双向的LSTM,并且将所有隐向量进行平均池化作为作文表示;CNN-LSTM使用CNN来抽取句内的词组特征,用LSTM建模句子间的语义关联特征;CNN-LSTM-Att在CNN-LSTM的基础上引入了注意力机制;SKIPFLOW在学习作文表示的同时显式地加入了对连贯性的建模;RL1是基于强化学习的AES模型,使用Dilated LSTM[18]网络来抽取作文的表示并执行决策,使用策略梯度直接优化QWK指标;BERT是本文方法的基础版本,与本文模型的区别在于:没有使用特征工程,没有使用其他主题的作文数据;R2BERT是文献[13]提出的基于BERT的AES模型,同时优化回归损失(MSE损失)和排序损失(list-wise排序损失),是目前最强的AES神经网络模型。

      与其他相关工作一样,本文使用Quadratic Weighted Kappa (QWK)系数作为模型评分准确性的衡量指标。QWK系数用于衡量两组评分(机器评分和人工评分)之间的一致性,取值通常介于0~1之间,分数越高表示一致性越高。如果小于0,说明一致性甚至不如随机评分。QWK的计算可以参考文献[10,13]。

    • 本文的模型使用Python语言和Pytorch框架实现,预训练BERT采用HuggingFace发布的“bert-base-uncased”模型。在预训练阶段,初始学习率设为4×10−5,使用Adam优化器,训练50轮,取验证集上结果最好的模型用于微调。在微调阶段,初始学习率设为3×10−6,仍使用Adam优化器,训练30轮。对于超出BERT长度限制的作文,将超出长度限制的部分裁减掉。由于每个主题的样本数较少,因此本文采用5-折交叉验证方法,每折按照3:1:1的比例划分训练集、验证集、测试集。将5个测试集的结果求平均作为最终结果。

    • 表3列出了不同模型在ASAP数据集的8个主题上的QWK分数,粗体字表示最优结果。

      表 3  不同方法在ASAP数据集的8个主题上的结果

      方法主题1主题2主题3主题4主题5主题6主题7主题8平均
      LSTM0.5820.5170.5160.7020.6040.6700.6610.5660.602
      BiLSTM0.5910.4910.4980.7020.6430.6920.6830.5630.608
      EASE(SVR)0.7810.6300.6210.7490.7820.7710.7270.5340.699
      CNN+LSTM[3]0.8210.6880.6940.8050.8070.8190.8080.6440.761
      LSTM-CNN-Att[5]0.8220.6820.6720.8140.8030.8110.8010.7050.764
      RL1[10]0.7660.6590.6880.7780.8050.7910.7600.5450.724
      SKIPFlOW[9]0.8320.6840.6950.7880.8150.8100.8000.6970.764
      HISK+BOSWE[17]0.8450.7290.6840.8290.8330.8300.8040.7290.785
      BERT0.8060.6800.6980.8080.8100.8140.8350.7050.770
      R2BERT[13]0.8030.6920.6940.8110.8110.8110.8300.7380.774
      All-prompt0.8190.7100.6860.8300.8380.8340.8290.7400.786
      本文方法0.8350.7210.7020.8410.8420.8460.8370.7490.797

      从结果来看,BiLSTM优于LSTM,这是符合直觉的,因为BiLSTM能够捕捉更全面的上下文信息。EASE的表现优于LSTM和BiLSTM这两个神经网络模型,说明简单的神经网络结构未必比使用精心设计的手工特征来训练传统机器学习算法的效果更好。CNN-LSTM的表现相比单纯使用LSTM的方法有较大提升,这主要是由于LSTM、BiLSTM这两个基线模型直接将整篇作文作为一个长序列,而忽视了句子级的结构信息,且LSTM不适合捕捉长距离依赖信息,在长文本的表现较差。而CNN-LSTM是先用CNN来学习句子的向量表示,再用LSTM来学习全文的表示,这种建模方式考虑了文章的层次结构,保留了句子级的结构信息,且CNN天然适合学习相邻词之间的关联特征,更适合对句子语义建模[5]。CNN-LSTM-Att在CNN-LSTM的基础上引入了注意力机制,使评分准确性获得进一步提升。注意力机制能区分不同词和不同句子的重要性,能够关注到更重要的局部特征,是目前的神经网络模型的基础结构。RL1使用强化学习的方法来直接优化QWK指标,但结果并不是特别优异,这跟它也是使用简单的LSTM网络来学习文章表示有关。SKIPFlOW通过增加前后句子间连贯性进行建模,获得了进一步的表现提升,这说明对于AES任务来说,评估文章的连贯性也很重要。基于核方法的HISK+BOSWE超越了所有神经网络基线模型,尤其是在议论文体裁的主题1和主题2上仍保持目前最优秀的性能,这也说明传统的机器学习方法的潜力不应被低估。而BERT、R2BERT这两个基于预训练BERT的模型并未取得最好的基线模型结果,这可能是由于数据量太小,容易导致过拟合,限制了大模型的学习能力。本文方法在6个主题上都取得了最优结果,说明了本文提出的特征工程和多主题联合预训练的方法的有效性。All-prompt是本文方法的基线版本,与本文方法的区别在于,没有使用基于梯度相似性的加权方法,而是直接将其他主题的数据加到训练集中。由结果可知,使用本文的损失加权方案可以在引入外部主题数据的同时,降低跟目标主题差异较大的样本的权重,进一步提升模型表现。

    • 为了验证本文设计的3类特征的效果,本文通过实验比较了不使用人工特征(none)、只使用统计特征(st)、使用统计特征+语法特征(st+gm)和使用所有特征的结果(all)。结果如表4所示,粗体字表示最优结果。

      表 4  比较使用不同特征的结果

      方法主题1主题2主题3主题4主题5主题6主题7主题8平均
      Ours(none)0.8110.7010.7010.8330.8350.8340.8220.7410.785
      Ours(st)0.8320.7160.7000.8350.8360.8420.8290.7450.792
      Ours(st+gm)0.8360.7180.6990.8450.8420.8450.8380.7490.797
      Ours(all)0.8350.7210.7020.8410.8420.8460.8370.7490.797

      从结果可知,统计类特征和语法类特征均对提升评分准确性有帮助,尤其是在议论文体裁的主题1和主题2上提升更加显著。这说明在当今深度神经网络成为主流机器学习方法的时期,考虑融合传统人工设计的特征对提升模型表现仍可能是有帮助的。加入可读性特征尽管未获得明显提升,但也不能说明不需要考虑作文的可读性,这也可能是使用的可读性特征不能很好反映文章是否易于理解,未来可以尝试设计更有效的可读性特征。

    • 针对自动作文评分领域当前面临的训练数据不足的问题,本文提出了一种多主题联合预训练方法,通过引入外部主题的作文数据,增加了训练样本的数量。为了降低直接引入差异较大的外部主题的样本带来的训练噪声,本文提出了一种基于梯度相似性的损失重加权方案。此外,为了进一步提升深度学习模型的性能,本文还将深度学习与传统特征工程相结合,并设计了3类作文特征。在公开数据集上的实验结果表明,本文方法显著优于传统的单主题内训练方法。

      进一步的工作可以考虑以下3个方向:1) 多维度质量评分。现有的AES方法绝大多数都是对作文质量进行整体评分,而很少关注作文质量的不同维度。文献[19]列举了作文质量的不同方面,包括语法、遣词、标点、组织结构、连贯性、说服力等11个方面。研究从不同维度对作文质量进行评分能够给用户提供更详细的信息,使用户知晓作文的不足之处。2) 评分反馈。现有的AES方法都只能对作文评分,而无法提供类似教师评语的反馈,如果能生成对应的反馈意见将有助于帮助学生提高写作水平。3) 少样本学习。由于AES领域缺少大规模数据集,因此可以研究少样本学习的方法,减轻对监督数据的依赖。

参考文献 (19)

目录

    /

    返回文章
    返回