美文网首页
Multi-attention Meta Learning fo

Multi-attention Meta Learning fo

作者: 李耕_嘿嘿嘿黑龙江哈哈哈哈尔滨 | 来源:发表于2021-09-13 22:26 被阅读0次

IJCAI20收录, 中科大蒋树强老师的学生写的.

论文分为两个部分, base learner和task embedding. 其中task embedding从实验数据角度来看基本没什么用, 可能主要是限制于最终只作用于classifer(全连接层, 是可以直接算出最优解).

文章优点在于锁定了其研究的问题是细粒度少样本图片识别few-shot fine-grained image recognition (FSFGIR), 从元学习的角度来说并没有什么大的创新, 由于其采取的数据集不具有普适性, 从其消融实验的结果来看, 其方法主要效果来自于对attention层的使用.

消融实验

可以看出来在置信度95%情况下, task learner实际上效果相对CBAM差很多, 基本上没什么作用.

如果着重考虑CBAM层的话, 也不能看对比实验, 因为对比当中像MAML这样的模型无关的元学习方法没有相同的模型基本没什么对比性, 或者说本文的效果就是来自一个好模型配MAML.

这篇文章写的还是可以的, 通篇读起来还是很舒服, 虽然创新性有限, 但是其锁定问题很好, 并且这个问题易于理解, 其他工作又不多, 因此能中顶会. 但是单从方法论角度看, 其无非是从CBAM中获益, 而新提出的task learner 方法虽然很复杂但是实验结果显的有些鸡肋. 

相关文章

网友评论

      本文标题:Multi-attention Meta Learning fo

      本文链接:https://www.haomeiwen.com/subject/tkcqgltx.html