UDA半监督学习论文【终于说清楚了系列3】

作者: 米米不多 | 来源:发表于2021-04-10 06:20 被阅读0次

    UDA: Unsupervised Data Augmentation for Consistency Training

    文章发表于NeurIPS 2020

    半监督方法的目是充分利用少量的有标数据以及大量的无标数据。
    为了充分利用有标数据,通常会对有标数据进行增强
    为了充分利用无标数据,会通过一种方法给无标数据打上人工标签,然后就可以像有标数据一样利用起来
    UDA的主要步骤如下:


    image.png

    1.给无标数据一个人工标签。无标数据的模型输出结果当做标签(置信度大于阈值,并经过锐化Sharpening)。
    2.一致性正则。通过对一个无标数据增强一次并输入模型来拟合之前得到的人工标签(CE损失)。值得注意的是,这里的标签并不是one-hot的,而是一个概率分布。
    3.有标数据的CE损失+无标数据的CE损失

    由此可见,该方法一致性正则熵最小正则(smoothness/cluster assumption)的应用。
    一致性正则体现在将一个无标数据前后标签一致
    熵最小正则体现在给无标数据一个人工标签的过程(Sharpening)

    实验

    image.png

    代码https://github.com/google-research/uda

    相关文章

      网友评论

        本文标题:UDA半监督学习论文【终于说清楚了系列3】

        本文链接:https://www.haomeiwen.com/subject/nxdikltx.html