美文网首页
drop-out在有监督任务上的应用—Rdrop

drop-out在有监督任务上的应用—Rdrop

作者: 吹洞箫饮酒杏花下 | 来源:发表于2021-11-04 19:38 被阅读0次

场景:有监督模型中,利用dropout的方式,增强模型的泛化能力。

drop-out在无监督学习上的应用 :用于对比学习。同个query,drop前后的预测结果相同。不同query,所有结果为负例,预测结果不同。如simCSE。simCSE的目标是:学习一个优质的语义表示空间。每个sentence学习到一个embedding。

loss : 拉近相似的样本,推开不相似的样本。一种常用的对比损失是基于批内负样本的交叉熵损失。噪音前后,作为正例。batch内,其他样本作为负例。

loss 样本

Supervised SimCSE :在SBERT原文中,作者将NLI数据集作为一个三分类任务来训练。构造样本的形式,直接将数据集中的正负样本拿过来用就可以了,将NLI(SNLI+MNLI)数据集中的entailment作为正样本,conradiction作为负样本,加上原样本premise一起组合为(x,x+,x-),并将损失函数改进为

新的loss 样本

Regularized Dropout :R-drop在分类问题上的应用。

最终loss loss:交叉熵 loss:KL散度

loss : 在常规交叉熵的基础上,加了一项强化模型鲁棒性正则项。即,同一条样本,经过两次drop-out(两次不同的噪音),通过KL散度,希望模型的输出尽可能一致。

 扩展:对比学习的目标是从数据中学习到一个优质的语义表示空间,那么如何评价这个表示空间的质量呢?Wang and Isola (2020)提出了衡量对比学习质量的两个指标:alignment和uniformity,其中alignment计算x和x+(增强样本)的平均距离,而uniformity计算向量整体分布的均匀程度。也就是一方面希望正样本要挨得足够近,另一方面语义向量要尽可能地均匀分布在超球面上,因为均匀分布信息熵最高,分布越均匀则保留的信息越多,“拉近正样本,推开负样本”实际上就是在优化这两个指标。

alignment uniformity

相关文章

  • drop-out在有监督任务上的应用—Rdrop

    场景:有监督模型中,利用dropout的方式,增强模型的泛化能力。 drop-out在无监督学习上的应用 :用于对...

  • 前戏:一文读懂Android系统的相机使用

    如果我们的应用必须在有相机的设备上才能正常使用,那么如何限制只在有相机的设备上安装应用? 如果我们不进行上面的设置...

  • Support Vector Machine

    [TOC] Support Vector Machines 支持向量机 SVM 在有监督学习算法中 1.从直觉上理...

  • 生成模型和判别模型

    首先从监督学习来认识1、监督学习的主要任务就是学习一个模型,应用这一模型,对给定的输入预测相应的输出。这一模型的一...

  • 02-文本标注工具brat

    本文主要介绍两个部分: A,安装部署 brat B,配置brat用于中文任务 NLP基本上都是监督学习,而监督学习...

  • 「scRNAseq」Quality Control of scR

    与bulk Rnaseq相比存在的问题: Amplification bias 扩增偏移 Drop-out ra...

  • 醒走人生第十四天落地实修作业

    刚开始老师布置作业,内在有点抵触,但是想自己就是需要督促和监督,就选择了坚持,前三天的热情过去后,第四天觉得是任务...

  • 20180203《管理成就生活》(14)监督

    管理的任务四:监督 一、必须监督 反对监督的一个常见理由是人们不喜欢监督,它会对我们的积极性造成不良影响,而且监督...

  • 察右中旗纪委监委以精准监督破解基层难题

    (黄秀琴)察右中旗纪委监委紧紧围绕“谁来监督、监督什么、如何监督”这一任务,通过实施“监督内容的精准、监督手段的精...

  • 机器学习的分类

    机器学习可以分为监督学习,和无监督学习。监督学习与无监督学习区别表现在有没有教学值,有没有标记,有没有输入输出。区...

网友评论

      本文标题:drop-out在有监督任务上的应用—Rdrop

      本文链接:https://www.haomeiwen.com/subject/tbhmvltx.html