给定训练和测试数据集,训练某个二分类模型(如,GBDT算法),我们通过交叉验证的方法得到了一组最优超参数以及对应的最优模型,但在测试集上这个模型仍有一定的误差率,也就说模型的预测结果存在一定数量的bad case。那么,目前的模型逼近了效果的上限了吗? 这些bad case有可能被解决吗?如果可以,该如何解决呢?
回答这些问题的前提条件是样本和特征已经固定下来,本文不讨论那些数据集本身还在迭代变化的情况。
需要注意的是,这里说的噪声样本不一定是我们收集、加工数据的过程中出现了错误,有可能是样本对应的真实世界中的行为就是一个小概率的行为,这些小概率的异常行为虽然本身有可能真实存在,但是过度关注这些行为,会导致模型拟合正常行为的能力下降,而且并不会在模型的真实使用时带来增益。
由此可见,我们只要识别出噪声样本的数量,就能大致估算出模型的效果上界是多少。另外一方面,识别出标签正确的困难样本,也有助于我们寻找到模型改进的方法。
目前基于带噪标签数据的学习方法主要有两大类,一类是直接训练对噪声鲁棒的模型(noise-robust models),另一类方法首先识别出噪声数据,然后基于清洗后的数据训练模型。
尽管第一类方法已经足够好,但是面对老板如下的“灵魂拷问”,我们还是要关注一下第二类方法。
本文主要关注第二类方法。
假设我们有一个样本相似度模型能够度量两个样本的相似度,那么可以针对bad case使用K近邻算法对其分类,根据分类结果识别其是否是噪声样本。这种方法的原理是假设相似的样本具有相同的分类标签。
一个二分类模型的bad case有以下两种情况:
余弦相似度计算公式:
加权余弦相似度:
并不是每个特征在分类决策中做出的贡献都是相同的,所以,在有特征重要度权重的条件下,使用“加权余弦相似度”会比基础的“余弦相似度”度量方法有更好的结果。
使用GBDT算法,如阿里云平台上的 PS_SMART,训练的模型通常都可以输出每个特征的重要度分数,这些特征重要度分数的量级差异通常都比较大,在代入到“加权余弦相似度”计算公式时,需要先做softmax归一化,具体公式如下:
使用向量检索引擎,比如 faiss, mivus,有一定的使用门槛。
推荐使用阿里云开源的推荐算法训练框架EasyRec中集成的向量检索算法,可以直接运行在MaxCompute上,使用命令如下:
pai -name easy_rec_ext -project algo_public_dev
-Dcmd=vector_retrieve
-Dquery_table=odps://pai_online_project/tables/query_vector_table
-Ddoc_table=odps://pai_online_project/tables/doc_vector_table
-Doutput_table=odps://pai_online_project/tables/result_vector_table
-Dcluster='{"worker" : {"count":3, "cpu":600, "gpu":100, "memory":10000}}'
-Dknn_distance=inner_product
-Dknn_num_neighbours=100
-Dknn_feature_dims=128
-Dknn_index_type=gpu_ivfflat
-Dknn_feature_delimiter=','
-Dbuckets='oss://${oss_bucket}/'
-Darn='acs:ram::${xxxxxxxxxxxxx}:role/AliyunODPSPAIDefaultRole'
-DossHost='oss-cn-hangzhou-internal.aliyuncs.com'
模型参数说明请查看文档:https://easyrec.readthedocs.io/en/latest/vector_retrieve.html
置信学习(Confident Learning)是MIT和Google的研究人员提出一种可以快速地找出错误标签样本的迭代模型,并且有开源的工具库Cleanlab可以使用。
术语定义:
条件独立假设:每个样本被误标注都是条件独立的。
置信度联合计数矩阵 (有点类似混淆矩阵)的行表示预测标签样本个数,列表示真实标签样本个数。每个单元格 表示真实标签为 ,人工标签为 的样本个数。
对于一个样本,它的人工标签是已知的,即样本中的标签。
但是该样本的真实标签却是未知的,可以通过如下两个条件判断真实标签:
对于二分类问题,真实标签为正样本的阈值为 所有预测为正样本的预测概率的平均值;负样本阈值为 所有预测为负样本的预测概率的平均值。
上述两个条件中的第一个很好满足,但是第二个条件不一定满足,所以并不是所有的样本都可以找到其真实标签,这也会在后续的步骤中有所体现。
| 100 | 40 | |
| 50 | 80 |
上表例子中的总样本数为:
置信度联合计数矩阵
的计算公式如下: 
在前一步构造置信度联合计数矩阵时,受到概率阈值限制,部分样本没有计算出真实标签。置信度联合计数矩阵中的样本数<=真实样本数。所以需要对置信度联合计数矩阵中的样本数量进行重新校准,校准公式如下:
即针对 矩阵中的每一行计算属于各个真实标签的概率值(上述公式右项乘号前面的子项),再乘以人工标签为 的样本总数(上述公式右项乘号后面的子项)。
根据校准之后的置信度联合计数矩阵,我们可以通过如下公式计算置信度联合概率分布矩阵 :
举例如下:
| 0.37 (=100/270) | 0.15 (=40/270) | |
| 0.185 (=50/270) | 0.296 (=80/270) |
备注:这里省略了计数校准的标准。
原始论文中提供了四种方法,这里介绍其中两种。
假设样本总数为 ,对于置信度联合概率分布矩阵的每个非对角线元素,计算 作为对 的预估。比如,假设共有100个样本,根据上表中的数据,判定有15个标注为正样本的数据实际上属于负样本。
对于每个类 ,选择 个置信度最低(模型预测概率最低)样本作为“噪声”样本。
根据上表中的数据,预测结果为正样本的样本集合中,15个预测概率最低的样本被判定为“噪声”样本;预测结果为负样本的样本集合中,18个预测概率最低(predict label=1的概率最高)的样本被判定为“噪声”样本。
对于置信度联合概率分布矩阵的每个非对角线元素,计算 个样本( )作为“噪声”样本,选择条件是预测概率差值( )最大的那个子集。
根据上表中的数据,预测结果为正样本的样本集合中,15个 “预测为负样本的概率-预测为正样本的概率” 最大的样本被标记为“噪声”样本;预测结果为负样本的样本集合中,18个 “预测为正样本的概率-预测为负样本的概率” 最大的样本被标记为“噪声”样本;
在模型训练过程中,某个样本已经被模型正确分类,随着模型参数的更新,该样本又被错误分类,这一过程被称之为该样本的一次遗忘事件(forgetting event)。根据论文《AN EMPIRICAL STUDY OF EXAMPLE FORGETTING DURING DEEP NEURAL NETWORK LEARNING》的研究,在模型训练过程中噪声样本往往会比正常样本经历更多的遗忘事件。基于这一启发式规则,我们可以记录下每个样本经历的遗忘事件总次数,进一步辨别出可能的噪声标签数据。
基于训练过程中样本的loss值的相对大小来识别错误标签,这一方法是淘系技术部的同学在ICCV2019的论文《O2U-Net: A Simple Noisy Label Detection Approach for Deep Neural Networks》中提出的。
大致思路基于以下逻辑:在一次训练中,随着迭代轮次增加,网络逐渐从欠拟合逐渐过渡到过拟合状态,在训练的初期,模型精度的提升是非常明显的,因为网络很快学会了那部分“简单的”样本,因此这类样本的loss比较小,与之相反,那些“困难的”样本通常在训练的后期才逐渐被学会。观察训练过程发现,噪声样本通常是在训练的后期才被学会,因而在训练的早期,噪声样本的平均loss是远大于干净样本的,而在训练的后期,因为网络逐渐学会了所有样本,两类样本的loss区别不大。纵观整个训练过程,从欠拟合到过拟合,噪声样本loss的均值和方差都比干净样本要大。通过循环学习率策略,使网络在欠拟合和过拟合之间多次切换,并追踪不同阶段不同参数的模型对样本的loss,通过在时间维度上捕获多样性足够丰富的模型(类似集成学习,对满足多样性和准确性的多个模型进行ensemble),统计各个样本loss的均值和方差,均值和方差越大,样本属于噪声样本的概率也就越大。
假设测试集样本数为 ,其中模型预测错误的样本数为 ,这些预测错误的样本中有 条被上述方法识别为噪声样本,那么:
对于二分类问题,召回率、准确率的上界计算方法类似,这里不再赘述。
借鉴AdaBoost算法原理,通过改变训练数据的样本权重,迫使模型更加关注分类错误的困难样本,从而得到更加鲁棒的模型。
本文由 mdnice 多平台发布