UDA: Unsupervised Data Augmentation for Consistency Training
文章发表于NeurIPS 2020
半监督方法的目是充分利用少量的有标数据以及大量的无标数据。
为了充分利用有标数据,通常会对有标数据进行增强
为了充分利用无标数据,会通过一种方法给无标数据打上人工标签,然后就可以像有标数据一样利用起来
UDA的主要步骤如下:

1.给无标数据一个人工标签。无标数据的模型输出结果当做标签(置信度大于阈值,并经过锐化Sharpening)。
2.一致性正则。通过对一个无标数据增强一次并输入模型来拟合之前得到的人工标签(CE损失)。值得注意的是,这里的标签并不是one-hot的,而是一个概率分布。
3.有标数据的CE损失+无标数据的CE损失
由此可见,该方法一致性正则 和 熵最小正则(smoothness/cluster assumption)的应用。
一致性正则体现在将一个无标数据前后标签一致
熵最小正则体现在给无标数据一个人工标签的过程(Sharpening)
实验

网友评论