安庆大理运城常德铜陵江西
投稿投诉
江西南阳
嘉兴昆明
铜陵滨州
广东西昌
常德梅州
兰州阳江
运城金华
广西萍乡
大理重庆
诸暨泉州
安庆南充
武汉辽宁

AiTrust下预训练和小样本学习在中文医疗信息处理挑战榜C

1月5日 碎骨族投稿
  项目链接:https:aistudio。baidu。comaistudioprojectdetail4592515?contributionType1如果有图片缺失参考项目链接0。项目背景
  CBLUE又是一个CLUE榜单,大家都知道近年来NLP领域随着预训练语言模型(下面简称PTLM)的兴起又迎来了一波迅猛发展,得益于PTLM技术的推动,催生出一批多任务的benchmark榜单,代表性的工作是GLUE,在中文领域也有CLUE。CBLUE的全名是ChineseBiomedicalLanguageUnderstandingEvaluation,是目前国内首个医疗AI方向的多任务榜单,相信这个榜单的推出会促进医疗语言模型的发展和医疗NLP领域的发展。榜单的官网介绍如下:
  中文医疗信息处理评测基准CBLUE(ChineseBiomedicalLanguageUnderstandingEvaluation)是中国中文信息学会医疗健康与生物信息处理专业委员会在合法开放共享的理念下发起,由阿里云天池平台承办,并由医渡云(北京)技术有限公司、平安医疗科技、阿里夸克、腾讯天衍实验室、北京大学、鹏城实验室、哈尔滨工业大学(深圳)、郑州大学、同济大学、中山大学、复旦大学等开展智慧医疗研究的单位共同协办,旨在推动中文医学NLP技术和社区的发展。
  榜单在设计上综合考虑了任务类型和任务难度两个维度,目标是建设一个任务类型覆盖广、同时也要保证任务的难度的benchmark,因此榜单在吸收往届CHIPCCKSCCL等学术评测任务的同时也适当增加了业界数据集,业务数据集的特点是数据真实且有噪音,对模型的鲁棒性提出了更高的要求。CBLUE评测基准2。0包括医学文本信息抽取(实体识别、关系抽取、事件抽取)、医学术语归一化、医学文本分类、医学句子关系判定和医疗对话理解与生成共5大类任务14个子任务。
  blog。csdnimg。cnef2cb516bcfa481ab30b0f345c4bf11a。png)
  中文领域也有CLUE:https:www。cluebenchmarks。comindex。html
  英文
  https:gluebenchmark。com
  官网介绍榜单一共包含了4大类8细类任务,下面分别介绍:医学信息抽取:
  主要包含了实体识别NER任务和关系抽取RE两个数据集:CMeEE(ChineseMedicalEntityExtraction):是由北京大学、郑州大学、鹏城实验室和哈尔滨工业大学(深圳)联合提供。共包括9大类实体:疾病(dis),临床表现(sym),药物(dru),医疗设备(equ),医疗程序(pro),身体(bod),医学检验项目(ite),微生物类(mic)和科室(dep),其中临床表现实体类别中允许嵌套,该实体内部允许存在其他八类实体。嵌套实体一向是NER任务中一个难点。
  CMeIE(ChineseMedicalInformationExtraction):和CMeEE任务一样,也是由北京大学、郑州大学、鹏城实验室和哈尔滨工业大学(深圳)联合提供的。共包括53类关系类型(具体类型参见官网介绍),这个任务需要打榜选手完成端对端的模型预测,即输入是原始的句子,选手需要完成实体识别和关系抽取两个任务。从关系种类的数量53类来看,且标注规范中有提及到关系可能是跨句子分布的(Combined字段为false),这是一个比较难的任务。医学术语归一化:
  这个任务按照我的理解是应该归属到信息抽取这个大类的,都属于知识图谱构造的关键技术,不知道官方为什么单独划分为一类,可能是有其他考虑。包括了一个数据集:CHIPCDN(CHIPClinicalDiagnosisNormalizationdataset):CHIP这个名字一开始比较困惑,Google上查找了半天也没有找到是什么,后来仔细看官方文档才发现CHIP就是这个榜单的发起单位组织的专业会议(历史经验告诉我们任何时候都要认真读文档),CHIP表示中国健康信息处理会议,全称是ChinaHealthInformationProcessingConference,是中国中文信息学会医疗健康与生物信息处理专业委员会主办的关于医疗、健康和生物信息处理和数据挖掘等技术的年度会议,是中国健康信息处理领域最重要的学术会议之一,
  这个会议已经连续举办了六届,最近几届都发布了医疗方向的学术评测任务,这个榜单很多以CHIP开头的数据集就是来源于大会上发布的评测任务。言归正传,CHIPCDN数据集是由北京医渡云公司提供的,这是一个标准的实体标准化归一化任务,将给定的医学症状实体映射到医学标准字典(ICD10)上。这是一个很有实际意义的任务,医生在书写病历的时候,同一个术语往往有多种不同的写法,甚至一个症状可能是多个标准症状的叠加(如官网中的例子:右肺结节转移可能大肺占位性病变肺继发恶性肿瘤转移性肿瘤),非常的复杂。这类任务一般不能只靠模型来解决,需要结合具体的行业知识来做判定。医学文本分类:
  包括两个任务:CHIPCTC(CHiPClinicalTrialCriteriondataset):是由同济大学生命科学与技术学院提供,主要针对临床试验筛选标准进行分类,所有文本数据均来自于真实临床试验,也是一个有真实意义的任务。从技术上看,这是一个典型的短文本多分类问题,共有44个类别(具体类别请参照官网),分类任务研究相对较多,一般需要注意的是类别比例的分布。KUAKEQIC(KUAKEQueryIntentionClassificationdataset),是由夸克浏览器提供。这也是一个文本分类问题,共有11种分类(具体分类请查看官网),和CHIPCTC数据集的区别是这个任务的输入均来自于真实的用户query,数据存在大量的噪音。医学句子关系判定医学QA:
  包括3个数据集:CHIPSTS(CHIPSemanticTextualSimilaritydataset):是由平安医疗科技公司提供。是一个典型的语义相似度判断问题,数据集共包含5大类疾病,输出结果是01两类标签。这个任务应该不算太难,其中疾病的类别信息也是一个输入,模型在设计的时候要把这个feature考虑进去。KUAKEQTR(KUAKEQueryTitleRelevancedataset):也是由夸克公司提供,搞搜索推荐算法的小伙伴们一看就知道是一个QTmatch的问题,相比CHIPSTS,这个数据集是一个4分类问题(共03分4档)。官网给的例子还是挺有难度区分的,感觉模型不太容易跑出高性能。KUAKEQQR(KUAKEQueryQueryRelevancedataset):也是由夸克公司提供。和KUAKEQTR类似,是一个典型的QueryQuerymatch问题,是一个3分类问题(共02分3档)。难点同QTR。1。数据集加载安装环境
  KUAKEQIC(KUAKEQueryIntentionClassificationdataset),是由夸克浏览器提供。这也是一个文本分类问题,共有11种分类(具体分类请查看官网),和CHIPCTC数据集的区别是这个任务的输入均来自于真实的用户query,数据存在大量的噪音。!wgethttps:paddlenlp。bj。bcebos。comdatasetsKUAKEQIC。tar。gz!tarzxvfKUAKEQIC。tar。gz!mvKUAKEQICdata!rmKUAKEQIC。tar。gz!pipinstallupgradepaddlenlp!pipinstallscikitlearn
  数据集展示心肌缺血如何治疗与调养呢?治疗方案19号来的月经,25号服用了紧急避孕药本月5号,怎么办?治疗方案什么叫痔核脱出?什么叫外痔?疾病表述您好,请问一岁三个月的孩子可以服用复方锌布颗粒吗?其他多发乳腺结节中药能治愈吗疾病表述有了中风怎么样治最好治疗方案输卵管粘连的基本检查其他尖锐湿疣吃什么中草药好治疗方案细胞病理学诊断非典型鳞状细胞,意义不明确。什么意思指标解读性生活后白带有酸味是怎么回事?病情诊断会是胎动么?其他经常干呕恶心,这是生病了吗其他
  标签合集:病情诊断治疗方案病因分析指标解读就医建议疾病表述后果表述注意事项功效作用医疗费用其他2预训练模型微调2。1知识点:学习率warmup
  由于神经网络在刚开始训练的时候是非常不稳定的,因此刚开始的学习率应当设置得很低很低,这样可以保证网络能够具有良好的收敛性。但是较低的学习率会使得训练过程变得非常缓慢,因此这里会采用以较低学习率逐渐增大至较高学习率的方式实现网络训练的热身阶段,称为warmupstage。但是如果我们使得网络训练的loss最小,那么一直使用较高学习率是不合适的,因为它会使得权重的梯度一直来回震荡,很难使训练的损失值达到全局最低谷。
  在实际中,由于训练刚开始时,训练数据计算出的梯度grad可能与期望方向相反,所以此时采用较小的学习率learningrate,随着迭代次数增加,学习率lr线性增大,增长率为1迭代次数等于warmupsteps时,学习率为初始设定的学习率;
  另一种原因是由于刚开始训练时,模型的权重(weights)是随机初始化的,此时若选择一个较大的学习率,可能带来模型的不稳定(振荡),选择Warmup预热学习率的方式,可以使得开始训练的几个epoches内学习率较小,在预热的小学习率下,模型可以慢慢趋于稳定,等模型相对稳定后再选择预先设置的学习率进行训练,使得模型收敛速度变得更快,模型效果更佳。
  迭代次数超过warmupsteps时,学习率逐步衰减,衰减率为1(totalwarmupsteps),再进行微调。
  常见的warmup方式有三种:constant,linear和exponent。constant:在warmup期间,学习率。ResNet论文中就使用了这种方式,在cifar10上训练ResNet101时,先用0。01的学习率训练直到训练误差低于80(大概训练了400个steps),然后使用0。1的学习率进行训练。
  linear:constant的不足之处在于从一个很小的学习率一下变为比较大的学习率可能会导致训练误差突然增大。linear方式可以避免这种问题,在warmup期间,学习率从线性增长到。
  exponent:在warmup期间,学习率从指数增长到。
  参考链接:https:zhuanlan。zhihu。comp508953700
  warmup方法的优势:
  有助于减缓模型在初始阶段对minibatch的提前过拟合现象,保持分布的平稳
  有助于保持模型深层的稳定性
  paddlenlp参考文档:
  https:www。paddlepaddle。org。cndocumentationdocszhapipaddleoptimizerlrLinearWarmupcn。htmllinearwarmup
  2。2模型训练和预测!pythontrain。pydatasetdirdataKUAKEQICdevicegpusavedir。checkpointmaxseqlength256modelnameernie3。0xbasezhbatchsize32learningrate3e5earlystopearlystopnums5epochs20warmupwarmupsteps1000weightdecay0。01loggingsteps50validsteps100
  savedir:保存训练模型的目录;默认保存在当前目录checkpoint文件夹下。trainfile:本地数据集中训练集文件名;默认为train。txt。devfile:本地数据集中开发集文件名;默认为dev。txt。labelfile:本地数据集中标签集文件名;默认为label。txt。
  device:选用什么设备进行训练,选择cpu、gpu、xpu、npu。如使用gpu训练,可使用参数gpus指定GPU卡号;默认为gpu。
  datasetdir::本地数据集路径,数据集路径中应包含train。txt,dev。txt和label。txt文件;默认为None。
  datasetdir:本地数据集路径,数据集路径中应包含train。txt,dev。txt和label。txt文件;默认为None。
  maxseqlength:分词器tokenizer使用的最大序列长度,ERNIE模型最大不能超过2048。请根据文本长度选择,通常推荐128、256或512,若出现显存不足,请适当调低这一参数;默认为128。
  modelname:选择预训练模型,可选ernie1。0largezhcw,ernie3。0xbasezh,ernie3。0basezh,ernie3。0mediumzh,ernie3。0microzh,ernie3。0minizh,ernie3。0nanozh,ernie2。0baseen,ernie2。0largeen,erniembase,默认为ernie3。0mediumzh。
  batchsize:批处理大小,请结合显存情况进行调整,若出现显存不足,请适当调低这一参数;默认为32。
  learningrate:Finetune的最大学习率;默认为3e5。
  weightdecay:控制正则项力度的参数,用于防止过拟合,默认为0。0。可以设置小点如0。01等
  epochs:训练轮次,使用早停法时可以选择100;默认为10。
  earlystop:选择是否使用早停法(EarlyStopping);模型在开发集经过一定epoch后精度表现不再上升,训练终止;默认为False。
  earlystopnums:在设定的早停训练轮次内,模型在开发集上表现不再上升,训练终止;默认为4。
  warmup:是否使用学习率warmup策略,使用时应设置适当的训练轮次(epochs);默认为False。
  warmupproportion:学习率warmup策略的比例数,如果设为0。1,则学习率会在前10steps数从0慢慢增长到learningrate,而后再缓慢衰减;默认为0。1。
  warmupsteps:学习率warmup策略的比例数,如果设为1000,则学习率会在1000steps数从0慢慢增长到learningrate,而后再缓慢衰减;默认为0。
  loggingsteps:日志打印的间隔steps数,默认5。
  initfromckpt:模型初始checkpoint参数地址,默认None。
  seed:随机种子,默认为3。
  训练结果:〔2022092423:46:42,282〕〔INFO〕globalstep2900,epoch:14,batch:79,loss:0。08345,speed:4。60steps〔2022092423:46:47,353〕〔INFO〕evalloss:1。06234,acc:0。80102〔2022092423:46:47,355〕〔INFO〕Currentbestaccuracy:0。81330〔2022092423:46:58,502〕〔INFO〕globalstep2950,epoch:14,batch:129,loss:0。00550,speed:3。09steps〔2022092423:47:10,650〕〔INFO〕globalstep3000,epoch:14,batch:179,loss:0。00378,speed:4。12steps〔2022092423:47:15,735〕〔INFO〕evalloss:1。13159,acc:0。80767〔2022092423:47:15,737〕〔INFO〕Currentbestaccuracy:0。81330〔2022092423:47:23,969〕〔INFO〕Earlystop!〔2022092423:47:23,969〕〔INFO〕Finalbestaccuracy:0。81330
  !pythonpredict。pydevicegpumaxseqlength128batchsize32datasetdirdataKUAKEQICparamspath。checkpointoutputfileoutput。txt
  预测结果textlabel黑苦荞茶的功效与作用及食用方法功效作用交界痣会凸起吗疾病表述检查是否能怀孕挂什么科就医建议鱼油怎么吃咬破吃还是直接咽下去其他幼儿挑食的生理原因是病因分析3。小样本学习
  提示学习(PromptLearning)适用于标注成本高、标注样本较少的文本分类场景。在小样本场景中,相比于预训练模型微调学习,提示学习能取得更好的效果。
  提示学习的主要思想是将文本分类任务转换为构造提示中掩码〔MASK〕的分类预测任务,也即在掩码〔MASK〕向量后接入线性层分类器预测掩码位置可能的字或词。提示学习使用待预测字的预训练向量来初始化分类器参数(如果待预测的是词,则为词中所有字的预训练向量平均值),充分利用预训练语言模型学习到的特征和标签文本,从而降低样本需求。提示学习同时提供RDrop和RGL策略,帮助提升模型效果。。train。py模型组网训练脚本utils。py数据处理工具infer。py模型部署脚本README。md3。1知识点:Rdrop技术(RegularizedDropout)
  对比学习RDrop:RegularizedDropoutforNeuralNetworks
  每个数据样本重复经过带有Dropout的同一个模型,再使用KL散度约束两次的输出,使得尽可能一致,而由于Dropout的随机性,可以近似把输入X走过两次的路径网络当作两个略有不同的模型,如下图所示:
  RDropout的原理
  简单地说,就是模型中加入dropout,训练阶段的预测预测两次,要求两次的结果尽可能接近,这种接近体现在损失函数上。
  那么,这个接近用的是什么呢?作者用的是KL散度。数学上的KL散度是用来对比两个分布是否相同,其连续型和离散型的公式分别是:
  OK,有这个基础,来继续看RDropout就更清晰了,我们要让两次预测结果的KL散度尽可能小,那么这部分的损失函数就可以构造出来了:
  KL散度本身是不具有自反性的,所以要用第一次预测对第二次的KL散度和第二次预测对第一次预测的KL散度的均值来进行计算。
  这部分损失可以加入到整体损失里面作为最终优化的一部分,例如是logloss(当然,其他任务可以用其他的损失):
  为什么RDropout会有用
  其实dropout的本质就是给模型加一些扰动,而Rdropout就是要扰动,更要保证这种扰动对结果尽可能小,毕竟这里还优化了两次预测的KL散度,所以其实这种训练就让模型的稳定性大幅提升。最近是遇到一些问题,一句话改一两个字意思还一样但是结果差距很大,这个rdropout应该可以缓解这个问题,甚至说解决。
  但是注意,这里是稳定性提升,我的感觉是并没有拉高模型本身的上限,甚至可能拉低上限。我们知道模型是存在不稳定性的,同一套数据的不同顺序,参数的不同初始化,不同的dropout都会导致模型效果存在波动,而且这个波动还不小,Rdropout本质上即使控制这种波动对结果的影响,从而保证了稳定性。而有关拉低上限,我的解释是最终的参数估计预测,相比不带有新的loss子项,这应该是一个有偏估计,还是可能一定程度拉低上限的。
  为什么用KL散度
  KL散度本质上是一个对比分布的函数,这与RDropout的初衷一致的,要求两次预测尽可能相同,这里是指完全相同,例如多分类下要求的是所有预测的对应概率也是一致的,相比于交叉熵的只针对最优值的prob,这个对比会更加全面和完整。
  知识点参考链接:
  https:blog。csdn。netJianaFengarticledetails123573686
  https:blog。csdn。netbaidu25854831articledetails120136660?spm1001。2101。3001。6650。4utmmediumdistribute。pcrelevant。nonetaskblog27Edefault7ECTRLIST7ERate4120136660blog123573686。t0edumltdepth1utmsourcedistribute。pcrelevant。nonetaskblog27Edefault7ECTRLIST7ERate4120136660blog123573686。t0edumltutmrelevantindex5
  https:zhuanlan。zhihu。comp3918819793。2模型训练与预测!pythonfewshottrain。pydevicegpudatadir。dataKUAKEQICoutputdir。checkpointsshotprompt这个分类是maxseqlength128learningrate3e5pptlearningrate3e4dotraindoevaluserdropnumtrainepochs20evalsteps200loggingsteps50perdeviceevalbatchsize32perdevicetrainbatchsize32loadbestmodelatendweightdecay0。01savesteps600warmupratio0。15warmupsteps1000warmupratio0。1定义要预热的stepnumwarmupstepswarmupratiototalsteps,numtrainingstepstotalstepsmaxsteps5000可以选择epochsorstepsdopredictdoexportsavesteps500默认500warmupratiowarmupstepsweightdecay
  modelnameorpath:内置模型名,或者模型参数配置目录路径。默认为ernie3。0basezh。
  datadir:训练数据集路径,数据格式要求详见数据准备。
  outputdir:模型参数、训练日志和静态图导出的保存目录。
  prompt:提示模板。定义了如何将文本和提示拼接结合。
  softencoder:提示向量的编码器,lstm表示双向LSTM,mlp表示双层线性层,None表示直接使用提示向量。默认为lstm。
  userdrop:使用RDrop策略。
  usergl:使用RGL策略。
  encoderhiddensize:提示向量的维度。若为None,则使用预训练模型字向量维度。默认为200。
  maxseqlength:最大句子长度,超过该长度的文本将被截断,不足的以Pad补全。提示文本不会被截断。
  learningrate:预训练语言模型参数基础学习率大小,将与learningratescheduler产生的值相乘作为当前学习率。
  pptlearningrate:提示相关参数的基础学习率大小,当预训练参数不固定时,与其共用learningratescheduler。一般设为learningrate的十倍。
  dotrain:是否进行训练。
  doeval:是否进行评估。
  dopredict:是否进行预测。
  doexport:是否在运行结束时将模型导出为静态图,保存路径为outputdirexport。
  maxsteps:训练的最大步数。此设置将会覆盖numtrainepochs。
  evalsteps:评估模型的间隔步数。
  device:使用的设备,默认为gpu。
  loggingsteps:打印日志的间隔步数。
  perdevicetrainbatchsize:每次训练每张卡上的样本数量。可根据实际GPU显存适当调小调大此配置。
  perdeviceevalbatchsize:每次评估每张卡上的样本数量。可根据实际GPU显存适当调小调大此配置。部分训练结果展示:
  跑了两次:最优acc为0。812793400steps
  4。模型优化:TrustAI、数据增强
  训练后的模型我们可以使用模型分析模块对每个类别分别进行评估,并输出预测错误样本(badcase),默认在GPU环境下使用,在CPU环境下修改参数配置为devicecpu:
  模型表现常常受限于数据质量,在analysis模块中基于TrustAI的稀疏数据筛选、脏数据清洗、数据增强三种优化方案助力开发者提升模型效果,更多模型评估和优化方案细节详见训练评估与模型优化指南。
  analysisevaluate。py评估脚本sparse。py稀疏数据筛选脚本dirty。py脏数据清洗脚本aug。py数据增强脚本README。md多分类训练评估与模型优化指南
  参考链接:
  多分类训练评估与模型优化指南:https:github。comPaddlePaddlePaddleNLPblobdevelopapplicationstextclassificationmulticlassanalysisREADME。md
  DataAugmentationAPI:https:github。comPaddlePaddlePaddleNLPblobdevelopdocsdataaug。md
  TrustAI:https:github。comPaddlePaddleTrustAI4。1模型评估
  使用训练好的模型计算模型的在开发集的准确率,同时打印每个类别数据量及表现:!pythonanalysisevaluate。pydevicegpumaxseqlength128batchsize32badcasepath。badcase。txtdatasetdirdataKUAKEQICparamspath。checkpoint
  验证结果部分展示:〔2022092423:54:13,923〕〔INFO〕Evaluatemodel〔2022092423:54:13,923〕〔INFO〕Traindatasetsize:6931〔2022092423:54:13,923〕〔INFO〕Devdatasetsize:1955〔2022092423:54:13,923〕〔INFO〕Accuracyindevdataset:81。38〔2022092423:54:13,924〕〔INFO〕Top2accuracyindevdataset:92。02〔2022092423:54:13,925〕〔INFO〕Top3accuracyindevdataset:97。19〔2022092423:54:13,925〕〔INFO〕Classname:病情诊断〔2022092423:54:13,925〕〔INFO〕Evaluationexamplesintraindataset:877(12。7)precision:97。65recall:99。43F1score98。53〔2022092423:54:13,925〕〔INFO〕Evaluationexamplesindevdataset:288(14。7)precision:82。26recall:88。54F1score85。28〔2022092423:54:13,925〕〔INFO〕〔2022092423:54:13,925〕〔INFO〕Classname:治疗方案〔2022092423:54:13,926〕〔INFO〕Evaluationexamplesintraindataset:1750(25。2)precision:98。48recall:99。77F1score99。12〔2022092423:54:13,926〕〔INFO〕Evaluationexamplesindevdataset:676(34。6)precision:88。86recall:93。20F1score90。97〔2022092423:54:13,926〕〔INFO〕
  。。
  可以看出不同类别识别难度不一:
  预测错误的样本保存在badcase。txt文件中:0。98病情诊断其他最近好像有感冒,身上感觉不定位不定时的痛特别的左边背上还长了一个大包,右眼酸胀。我这样严重吗0。98注意事项其他月经来后能否继续用月经前用的药0。97治疗方案其他外阴骚痒,每次跟老公做完事后就有点痒,后来老公说是以前大腿内侧得过皮炎,请问是不是这个造成的,该如何。。0。99后果表述其他雌二醇在排卵期会怎样?1。00病情诊断其他白带变黄异味重,怎么会事0。76病情诊断指标解读孕酮低是不是更年期到了要绝经了0。98疾病表述其他喉癌的高发人群与先兆0。99疾病表述注意事项忧郁症的表现及注意点0。79功效作用其他医师您好:VE是什么,VE真的可以除去黑。。。0。53注意事项治疗方案如何预防春天感冒0。92病情诊断其他四个月大的宝宝喜欢反手抓人正常吗?
  可以看到有364条预测错误,占比不少有待改进4。2TrustAI:稀疏数据筛选方案
  总结为样本多样性丰富度不够!
  稀疏数据:指缺乏足够训练数据支持导致低置信度的待预测数据,简单来说,由于模型在训练过程中没有学习到足够与待预测样本相似的数据,模型难以正确预测样本所属类别。
  本项目中稀疏数据筛选基于TrustAI(可信AI)工具集,利用基于特征相似度的实例级证据分析方法,抽取开发集中样本的支持训练证据,并计算支持证据平均分通常为得分前三的支持训练证据均分)。分数较低的样本表明其训练证据不足,在训练集中较为稀疏,实验表明模型在这些样本上表现也相对较差。
  稀疏数据筛选旨在开发集中挖掘缺乏训练证据支持的稀疏数据,通常可以采用数据增强或少量数据标注的两种低成本方式,提升模型预测效果。
  实例级证据分析:https:github。comPaddlePaddleTrustAIblobmaintrustaiinterpretationexamplelevelREADME。md
  实例级证据分析旨在从训练数据中找出对当前预测起重要作用的若干条实例数据。开发者基于实例级证据可对训练数据中的问题进行分析,如识别训练集中的脏数据、识别数据稀疏等。
  本工具包含多种实例级证据分析方法,如表示点方法、基于梯度的相似度方法、基于特征的相似度方法等。表示点方法基于梯度的相似度方法基于特征的相似度方法
  表示点方法【脏数据清洗】
  表示点方法(RepresenterPoint)将训练数据对当前预测数据的重要度影响(即表征值),分解为训练数据对模型的影响和训练数据与预测数据的语义相关度。对于一条给定的测试数据和测试结果,表征值为正的训练数据表示支持该预测结果,相反,表征值为负的训练数据表示不支持该预测结果。同时,表征值得大小表示了训练数据对测试数据的影响程度。
  在真实情况下,众包标注的语料通常掺杂噪音(标注错误),易干扰模型预测。表示点方法倾向于召回梯度较大的训练数据,因此开发者不仅可以使用实例级证据分析方法了解模型行为,也可以通过人工检测标注数据错误,提升模型效果。
  基于梯度的相似度方法
  基于梯度的相似度方法(GradCosin,GradDot)通过模型的梯度挑选对当前测试数据产生正影响和负影响的数据。
  基于梯度的相似度方法召回了在梯度意义上对测试数据有正影响和负影响的实例数据。召回的正影响数据往往是与测试数据语义上比较相似且标签一致的数据,负影响数据通常可能是标注错误的、类别模糊的甚至是存在冲突的数据。
  基于特征的相似度方法【稀疏数据识别】
  基于特征的相似度方法(FeatureCosin,FeatureDot,FeatureEuc)通过模型的特征挑选对当前测试数据有正影响和负影响的数据。
  基于特征的相似度方法召回了在特征意义上对测试数据有正影响和负影响的实例数据。召回的正影响数据与GC方法相似,负影响数据更倾向于召回和测试数据字面不相似的数据。
  详细demo见参考文档4。2。1稀疏数据识别数据增强
  这里我们将介绍稀疏数据识别数据增强流程,首先使用数据增强脚本挖掘开发集中的稀疏数据然后筛选训练集中对稀疏数据的支持数据进行数据增强,最后将得到的数据增强后的支持数据加入到训练集中进行训练。
  现在我们进行稀疏数据识别数据增强,得到新增训练数据:4。2。2稀疏数据识别数据标注
  这里我们将介绍稀疏数据识别数据标注流程,首先使用数据增强脚本挖掘开发集中的稀疏数据,然后筛选对稀疏数据支持的未标注数据,最后将得到支持数据进行标注后加入到训练集中进行训练。
  现在我们进行稀疏数据识别数据标注,得到待标注数据:
  annotate:选择稀疏数据识别数据标注模式;默认为False。
  unlabeledfile:本地数据集中未标注数据文件名;默认为data。txt。〔2022092520:52:35,898〕〔INFO〕Sparsedatasavedin。dataKUAKEQICsparse。txt〔2022092520:52:35,898〕〔INFO〕Accuracyinsparsedata:41。00〔2022092520:52:35,898〕〔INFO〕Averagescoreinsparsedata:0。7830〔2022092520:52:35,902〕〔INFO〕Weareusingclasspaddlenlp。transformers。ernie。modeling。ErnieForSequenceClassificationtoload。checkpoint。〔2022092520:52:40,282〕〔INFO〕Weareusingclasspaddlenlp。transformers。ernie。tokenizer。ErnieTokenizertoload。checkpoint。Extractingfeaturefromgivendataloader,itwilltakesometime。。。〔2022092520:52:40,878〕〔ERROR〕Theindexisoutofrange,pleasereducesupportnumorincreasesupportthreshold。Got1now。〔2022092520:52:40,879〕〔INFO〕supportdatasavedin。dataKUAKEQICsupport。txt〔2022092520:52:40,879〕〔INFO〕supportaveragescores:0。7153
  简单来讲就是标注一些困哪样本4。3脏数据清洗方案
  训练数据标注质量对模型效果有较大影响,但受限于标注人员水平、标注任务难易程度等影响,训练数据中都存在一定比例的标注较差的数据(脏数据)。当标注数据规模较大时,数据标注检查就成为一个难题。本项目中脏数据清洗基于TrustAI(可信AI)工具集,利用基于表示点方法的实例级证据分析方法,计算训练数据对模型的影响分数,分数高的训练数据表明对模型影响大,这些数据有较大概率为脏数据(标注错误样本)。
  现在我们进行脏数据识别,脏数据保存在traindirty。txt,剩余训练数据保存在traindirtyrest。txt:4。4数据增强策略方案
  在数据量较少或某些类别样本量较少时,也可以通过数据增强策略的方式,生成更多的训练数据,提升模型效果。
  DataAugmentationAPI:https:github。comPaddlePaddlePaddleNLPblobdevelopdocsdataaug。md
  词级别数据增强策略词替换词插入词删除词交换
  采取替换就好:
  同义词替换、同音词替换、本地词表替换、随机词替换
  上下文替换:上下文替换是随机将句子中单词进行掩码,利用中文预训练模型ERNIE1。0,根据句子中的上下文预测被掩码的单词。相比于根据词表进行词替换,上下文替换预测出的单词更匹配句子内容,数据增强所需的时间也更长。
  基于TFIDF的词替换:TFIDF算法认为如果一个词在同一个句子中出现的次数多,词对句子的重要性就会增加;如果它在语料库中出现频率越高,它的重要性将被降低。我们将计算每个词的TFIDF分数,低的TFIDF得分将有很高的概率被替换。
  trainpath:待增强训练数据集文件路径;默认为。。datatrain。txt。
  augpath:增强生成的训练数据集文件路径;默认为。。datatrainaug。txt。augstrategy:数据增强策略,可选mix,substitute,insert,delete,swap,mix为多种数据策略混合使用;默认为substitute。
  augtype:词替换词插入增强类型,可选synonym,homonym,mlm,建议在GPU环境下使用mlm类型;默认为synonym。同义词、同音词、mlm:上下文替换
  createn:生成的句子数量,默认为2。
  augpercent:生成词替换百分比,默认为0。1。
  device:选用什么设备进行增强,选择cpu、gpu、xpu、npu,仅在使用mlm类型有影响;默认为gpu。WordSubstitute参数介绍:augtype(strorlist(str)):词替换增强策略类别。可以选择synonym、homonym、custom、random、mlm或者前三种词替换增强策略组合。customfilepath(str,可选):本地数据增强词表路径。如果词替换增强策略选择custom,本地数据增强词表路径不能为None。默认为None。createn(int):数据增强句子数量。默认为1。augn(int):数据增强句子中被替换词数量。默认为Noneaugpercent(int):数据增强句子中被替换词数量占全句词比例。如果augn不为None,则被替换词数量为augn。默认为0。02。augmin(int):数据增强句子中被替换词数量最小值。默认为1。augmax(int):数据增强句子中被替换词数量最大值。默认为10。tfidf(bool):使用TFIDF分数确定哪些词进行增强。默认为False。tfidffile(str,可选):用于计算TFIDF分数的文件。如果tfidf为True,本地数据增强词表路径不能为None。默认为None。4。5数据增强后进行预训练小样本训练
  把finaldata放回到data进行训练5。总结
  本项目主要讲解了再主流中文医疗信息处理评测基准CBLUE榜单的一个多分类任务,并对warmup、Rdrop等技术进行简单介绍,使用预训练,小样本学习并通过AITrust可信分析提升模型性能,结果如下:
  模型acc预训练ernie3。00。81330小样本ernie3。00。81279预训练ernie3。0数据增强(aitrust)0。81688小样本ernie3。0数据增强(aitrust)0。81764
  可以看出在样本量还算大的情况下,预训练方式更有优势(准确率略高一点且训练更快一些),通过AITrust可信分析:稀疏数据筛选、脏数据清洗、数据增强等方案看到模型性能都有提升;这里提升不显著的原因是,这边没有对筛选出来数据集进行标注:因为没有特定背景知识就不花时间操作了,会导致仍会有噪声存在。相信标注完后能提升35点对于大多数任务,我们使用预训练模型微调作为首选的文本分类方案:准确率较高,训练较快提示学习(PromptLearning)适用于标注成本高、标注样本较少的文本分类场景。在小样本场景中,相比于预训练模型微调学习,提示学习能取得更好的效果。对于标注样本充足、标注成本较低的场景,推荐使用充足的标注样本进行文本分类预训练模型微调
  为了增加性能可以做成持续学习:参考如下图
  〔外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(imgGxqipqCM1664249547079)(https:aistudiostaticonline。cdn。bcebos。comfb138bc1013b489a96ec0ac8803d9085a1e565125492409cbc522168f3a68814)〕
  项目链接:https:aistudio。baidu。comaistudioprojectdetail4592515?contributionType1如果有图片缺失参考项目链接
投诉 评论

广东顶级射手被留下,杜锋将重点提拔5人,赶超辽篮的信心大增广东顶级三分手压哨注册,面对郭艾伦也能够,轰出13分的顶级主力,有望帮助杜锋在赢下冠军。杜锋跟朱芳雨做出新一轮的安排,打造出了首发五人组,夺冠的机会是非常巨大的。提到现在……北京环球影城上新打造多条主题深度游线路随着暑期的到来,北京环球度假区迎来了大批游客。这其中,既有第一次来到环球尝鲜体验的新面孔,也有许多二刷三刷甚至N刷环球的老顾客。越来越多的游客在一日集中打卡式游览之外,以更加深……重庆108人花7年时间,付出6条生命的代价,在悬崖上凿出一条重庆渝东南、渝东北都是典型的喀斯特地貌,有很多的溶洞和天坑,有的天坑里面还建有村庄,位于巫山县竹贤乡的下庄村就是这样的一个地方,村子四周都是悬崖峭壁,民间流传着一句顺口溜:下庄……安徽滁州八岭湖度假区,设施齐全,风景秀美,是休闲度假的好去处选择一个成熟的度假区可以算是最省心省时间的一种旅游方式。到安徽滁州,不妨将落脚点放在位于明光市张八岭镇普贤村的八岭湖,这里风光秀美的同时,还有舒适的住宿,好玩到爆的游乐设施,非……金鸡奖最失落的4位演员,个个演技炸裂,却没有拿到奖,实属遗憾头条创作挑战赛文九爷编辑孙大圣11月12日晚,第35届金鸡奖颁奖典礼在厦门落下帷幕。此次颁奖典礼,群星荟萃,媒体直接用半个娱乐圈都去了厦门来形容此次金鸡……2D类魂深沉之火评测好玩儿但是又有明显缺点的独立游戏作者:Aiden虽然核心玩法弹反对玩家的要求比较高,可能限制了一些玩家入坑的脚步,但是高风险也同样换回了优质的游戏体验。完美弹反所派生出的铭火以及反制也让游戏的战斗思路变……为啥很多人宁愿在网上买衣服,不合适再退换,也不去实体店呢?夏天到了,又到了该买衣服的时候了,去年的衣服已经不符合今年的气质,更不符合今年的体重了。对于女性来说,换季的时候更是买衣服的高峰期,夏天更要穿得美美哒,衣服要多多哒。对于……情路几何,究竟有多远?尘世漫漫,情路几何?唱着情路之歌,一路走向远方唱着情路之歌,唱出了人世间爱情的酸甜苦辣唱着情路之歌,左握着你的手,右写着爱是啊!牵着你的手,那么幸福就是……AiTrust下预训练和小样本学习在中文医疗信息处理挑战榜C项目链接:https:aistudio。baidu。comaistudioprojectdetail4592515?contributionType1如果有图片缺失参考项目链接……逆势突围并发力研发创新赛道跑出加速度雅迪坚持做好人才培养和产品研发。雅迪香料研发中心。董事总经理武燕玲据《香料香精行业十四五发展规划》中指出,十三五期间,我国香料香精市场规模稳定增长,但行业仍存……非常有效控制体重的十五个饮食小技巧1。吃饭用比较小的餐具装食物。2。主食换成粗粮,每天粗粮占主食总量的三分之一,不但增加饱腹感,还可以帮你减少能量的摄入,促进肠蠕动,防止便秘。3。调整吃饭顺序,可以……白术白芍白芷白菊花四白调和汤的效果是什么白术白芍白芷白菊花四白调和汤的效果是什么?一,白术白芍白芷白菊花入药,四白调和汤。1。四白调和汤处方组成特色:白术:补气健脾、燥湿利水。白芍:滋养肝血、……
年度旗舰之争大局已定,vivoX90靠什么胜出?满足孩子对人体好奇心的绘本推荐身体认识我自己满屏火药味!任泽平喊话苹果就价格歧视应给出解释2022北京时装周用服饰传递文化自信读过的书本,叫你懵懂走过的经历,让你成长进展巨大氧八面体倾转实现钴自旋态调控反悔了?宣布和侃爷解约刚刚半个月,阿迪达斯宣布继续卖Yeez文班亚马就是杜兰特戈贝尔的融合怪物!华子锡安都得让路63岁大姐直言家有97岁长寿老人,毁了我的幸福晚年,真的怕了三间房客栈(上)清凉度假在米易丨米易秋韵清爽舒适的夏季穿搭示范,简单利落又有格调,照着穿准没错铁路个人工作总结小学三年级科学上册第一单元第一节我看到了什么?教学设计仙女的眼泪都是亮片做的!楚楚可怜的泪光妆,浪漫又动人空调常吹却不知道这些?小心了!容易养出病2002年,盲井开拍,因环境艰苦男主拒演,却意外成就了群演微软为Win105月更新推送补丁:修复诸多问题春季正是体检时二十年后回家乡作文700字(精选10篇)我的老师制备石墨烯四大方法的优缺点(二)离婚一方不支付抚养费吗?携手15年,语雀创始人玉伯从蚂蚁离职,选择一个人远行

友情链接:中准网聚热点快百科快传网快生活快软网快好知文好找七猫云易事利