长达半年的甲方项目也算告一段了 虽然不知道会不会还要再反复改文档(害)
告别了数据分析 没想到没逃过数据标注 真 工具人小李
选了题目 开始忙了 没有选到不想做的视频和音频 但感觉那个题目也不好入手 就希望接下来都顺顺利利 关关难过关关熬过!
今天先恶补一些知识记录。
本文只做一个概念讲解 剩余请参考链接
Zero-shot Learning
概念
先解释一下什么是Zero-shot Learning?
从字面上来看,即是对某(些)类别完全不提供训练样本,也就是没有标注样本的迁移任务被称为零次学习。
zero-shot learning是为了能够识别在测试中出现,但在训练中没有遇到过的数据类别,我们可以学习到一个映射X->Y。如果这个映射足够好的话,我们就可以处理没有看到的类了,故可以被认为是迁移学习。举个通俗的例子:假设斑马是未见过的类别,但根据描述和过去知识的印象即马(和马相似)、老虎(有条纹)、熊猫(颜色)相似进行推理出斑马的具体形态,从而能对新对象进行辨认。(如下图所示)零次学习就是希望能够模仿人类的这个推理过程,使得计算机具有识别新事物的能力。
入门参考:
零次学习(Zero-Shot Learning)入门
One-shot Learning
概念
什么是One-shot Learning?
解释一下就是: 这个模型中,只有少量的有 label (标签)的训练样本 S ,S 中包括 N 个样本,yi 代表各样本的 label。因为测试样本集中每个样本都有一个正确的类别,我们希望,再来新的待分类的测试样本 x’ 时候,正确预测出 x' 标签是 y'。
one-shot learning即是对某(些)类别只提供一个或者少量的训练样本,也就是说只有一个标注样本的迁移任务被称为一次学习。
one-shot learning指的是我们在训练样本很少,甚至只有一个的情况下,依旧能做预测。要点就在于学到好的X->Y的映射关系,然后应用到其他问题上。
one-shot learning其实和zero-shot learning类似,只不过zero-shot learning提供的是无标注的样本而one-shot learning会提供少量或一个样本,也可以称为few-shot learning。
来自网上的一个定义:
注: 把每个类别 yi 的单个样本换成 k个样本就 变成了k-shot learning , few-shot 一般指的是 k 不超过 20。
参考:few-shot learning是什么
网友评论