首页>产业 > 信息技术 > > 正文

AI阅卷靠谱吗?提高了效率还是助长了作弊

2020-10-13 15:05:34
来源:科技日报 作者:陈曦 评论:0
导语:随着人工智能的发展,有不少App都应用了智能评分系统。但同时,也有不少家长吐槽英语跟读App评分,英语专业八级水平的得分也只有80分。

  随着人工智能的发展,有不少App都应用了智能评分系统。但同时,也有不少家长吐槽英语跟读App评分,英语专业八级水平的得分也只有80分。

  除了应用于口语语音智能评分,人工智能还被应用于判卷上。不过,近日一款号称服务于美国两万所学校的AI教学平台却翻车了,被“打脸”的就是搭载在平台上的AI阅卷系统,学生们借助它的漏洞“裸考”就能轻松及格。之所以被学生们钻了“空子”,是由于该系统只是通过关键词进行评分,学生们只要借助题目中的“关键词沙拉”,就能顺利过关甚至获得高分。

  阅卷前需先设定评判标准

  “自动测评打分、阅卷系统一般需要先设定评测的标准,而后根据设定的标准去设计合适的评测算法与模型。”天津大学智能与计算学部教授、博士生导师熊德意介绍,比如像口语测评打分,就需要机器去评判人的发音是否标准,所读句子的重音是否正确,读出的语句是否连贯流畅,连读部分是否准确等。这些都可能是评判的标准。

  AI阅卷系统则涉及到对语言文字的评判,涵盖很多方面,如语法、语义等,会大量运用到自然语言处理技术。

  “自然语言处理是人工智能的一个重要分支,研究利用计算机对自然语言进行智能化处理,基础的自然语言处理技术主要围绕语言的不同层级展开,包括音位(语言的发音模式)、形态(字、字母如何构成单词、单词的形态变化)、词汇(单词之间的关系)、句法(单词如何形成句子)、语义(语言表述对应的意思)、语用(不同语境中的语义解释)、篇章(句子如何组合成段落)7个层级”熊德意强调,这些基本的自然语言处理技术经常被运用到下游的多种自然语言处理任务(如机器翻译、对话、问答、文档摘要等)中,自动阅卷中的语言文字评测通常涉及这7个层级的若干层。

  设计自动评测指标的方法有多种,通常会根据不同的评判类型去选择适合的方法。“比如阅卷系统若要进行翻译题的自动评判,可以让老师事先写好多个参考译文答案,然后把学生的答案和参考答案进行类比。计算它们的相似度作为学生答案好坏的评测指标。”熊德意举例说,机器翻译常用的评测指标BLEU,就是基于参考译文和机器译文之间的N-grams(N元)匹配度计算相似度的。

  一个单词是一元,两个相连的单词是二元,还有三元、四元,如果答案中有一个单词与参考答案中的单词一致,那么就会给出一个一元评分,类似地可以计算二元、三元、四元的评分。我们为不同元设置不同权重,然后把得分统筹起来变成一个客观值,得分越高就说明两者之间的相似性越高。

  为啥不同AI评分相差甚远

  此次AI阅卷翻车的导火索是一个历史系的教授的学霸儿子在进行历史考试的时候只得到了50%的分数,而她对儿子的答案进行评测后,觉得孩子的回答是基本没有问题的。

  同样的答案,人工评价和机器评价为何有如此大的出入?

  “这就是基于AI算法的自动评测面临的最大挑战:如何与人工评价保持一致。应对这个挑战需要解决的问题很多。比如如何制定合适的评测标准,主观题进行自动评测必须要有合适的评测标准和规范;比如如何应对语言的千变万化,语言的多样性是自然语言处理的主要挑战之一,语言的自动测评和自动处理都要面对多样性的挑战;比如如何设计一个综合性的评测指标,虽然目前有各种各样的指标,但是很少有指标综合考虑语言文字的方方面面,例如作文自动阅卷,可能要考虑用词是否合理(词汇)、句子是否流畅(句法)、段落组织是否有条理(篇章)、内容是否扣题(语义、语用)等”熊德意说,上面提到的BLEU就是只考虑了单词形式的严格匹配,没有考虑单词的形态变化、语义相似性、译文的句法合理性等因素。

  “遵循的评测规则、评判的出发点不同,相应的算法模型都不一样,因此最后的结果也会相差甚远。”

  因此仅仅利用一种评测方法显然是不全面的,这也就解释了当孩子的母亲尝试在答案里加入“财富、商队、中国、印度”等题目中的关键词,即使这些关键词之间没有任何串联,她也得了满分。“可能这个AI阅卷系统只使用了简单的关键词匹配,因此会出现‘关键词沙拉’也能蒙混过关的情况。”熊德意解释。

  此外,口语的人工测评与机器测评也存在较大出入。“近年来,语音识别性能虽然在深度学习技术的推动下取得了显著的提升,但是在开放域、噪音环境下,这种识别率就会下降很多。”熊德意解释。如果机器“听”错了一个单词,而后机器进行测评,就会形成一个错误传播,也就是上游系统的错误会导致下一系统错误,错上加错,越错越离谱,测评结果也会大相径庭。

  “目前有很多设计评测指标的方法,还有很多改进的方法,如在计算准确率同时也计算召回率等。另外,还有对评测指标进行评测,即评测的评测,看看哪个评测指标更完善,更和人的评价一致。”熊德意感叹,自动评测的难度和对应的自然语言处理任务的难度,很多时候,从技术层面来说是一样的,比如用机器评价一个译文的好坏与用机器生成一个译文的难度类似,用机器评判一个文档摘要的好坏与用机器生成一个摘要的难度也差不多。

  未来或可以应用于评判阅卷

  “传统的自动评测指标通常是基于符号进行计算的,现在,深度学习等AI技术也越来越多地应用于测评工具中。”熊德意介绍,使用深度学习,可以把语言符号映射到实数稠密向量的语义空间,利用语义向量计算相似度。哪怕说的词语和计算机原本学习的不一样,但是语义是一致的,机器就可以进行精准的评价。因此,基于深度学习的自动评测某种程度上可以应对语言的多样性挑战。

  “不过深度学习也有一个问题,就是需要大量的数据让机器进行学习。”熊德意解释,将词汇表大小维度的独热向量压缩映射到几百维的稠密向量,神经网络需要通过大量数据训练,才能学习到较好的映射函数。

  基于自监督学习的预训练语言模型,近几年,在语言表示学习中,取得了突破性的进展。“OpenAI的预训练语言模型GPT-3,在 5000亿单词的海量语料上训练了一个带有1750亿个参数的神经网络,通过大量学习网络上各种语言的文本,GPT-3形成了强大的语言表示能力,可以进行多种任务,比如自动翻译、故事生成、常识推理、问答等,甚至可以进行加减法运算,比如两位数加减法100%正确,五位数加减法正确率接近10%”熊德意介绍,不过 这么庞大的神经网络,如果用单精度浮点数存储,需要700G的存储空间,另外模型训练一次就花费了460万美元。因此,即使GPT-3具有较好的零样本、小样本学习能力,其高昂的成本使其离普遍可用还有很远的距离。

  但是AI作为阅卷评测“老师”,其又有人工不可比拟的优势。比如AI自动批阅卷系统相比人工批阅速度更快,老师不可能一次记住所有的多项选择题答案,需要不断检查标准答案,这是很费时的,自动批阅系统帮助老师大大提高了效率;另外,自动批阅系统更加理性,不受外界条件干扰,不因疲劳等原因导致误判。即使在复杂的干扰环境中,仍然可以得到正确的结果;AI阅卷系统还可以在评分后直接做好学情分析,统计出考试数据、错题数据等教学材料,帮助老师减负、增效,帮助学生提高学习效率。

  “将主观题合理地客观化(比如变成选择题),可以降低自动阅卷的难度。”熊德意表示,对无法客观化的主观题,虽然设定全面的评测标准比较难,但是设定某一方面的评测标准还是可行的,比如针对单词词法、句子语法的评判,目前准确率还是挺高的,这类技术可以从实验室走向产品应用。

  也可以引入人工评测,对AI阅卷系统打分进行复核与修正,通过这种反复的修正,累积大量的评测训练数据,让机器评分变得更加智能。

  “利用自然语言处理等人工智能技术,进一步完善主观智能评分系统,将是未来教育领域的一个非常重要的课题。”熊德意充满信心地说,以后的AI自动批阅系统肯定会越来越“聪明”,人工智能与教育的结合也会越来越紧密。

(责任编辑:韩梦晨)

相关阅读:

版权与免责声明:
①凡本站注明稿件来源为:中国高新技术产业导报、中国高新网、中高新传媒的所有文字、图片和音视频稿件,版权均属本网所有,任何媒体、网站或个人未经本网协议授权不得转载、链接、转贴或以其他方式复制发表。已经本网授权使用作品的,被授权人应在授权范围内使用,并注明“来源:中国高新网、中高新传媒或者中国高新技术产业导报”。违反上述声明者 ,本网将追究其相关法律责任。
② 任何单位或个人认为本网站或本网站链接内容可能涉嫌侵犯其合法权益,应该及时向本网站书面反馈,并提供身份证明,权属证明及详细侵权情况证明,本网站在收到上述文件后,将会尽快移除被控侵权的内容或链接。
③如因作品内容、版权和其他问题需要与本网联系的,请在该事由发生之日起30日内进行。电话:010-68667266 电子邮件:dbrmt#chih.org (请将“#”换为“@”)
排行
  • 全部/
  • 本月

编辑推荐


扫描添加 中国高新技术产业导报

(数字报)

扫描添加 中国高新APP客户端
扫描添加 新浪微博
扫描添加 腾讯微信公众号