美文网首页
Tensor Regression Networks 笔记

Tensor Regression Networks 笔记

作者: 晨光523152 | 来源:发表于2019-12-07 15:10 被阅读0次

    Abstract

    卷积神经网络通常是由多个卷积层,和一些全连接层构成。不同的是,卷积层是在高阶激活张量之间映射,全连接层是在张开的激活向量之间操作。

    这个方法有引人注目的缺点:

    • Flattening 操作会破坏数据多线性结构
    • 全连接层需要大量参数

    为了保留每一层的多线性结构,引入了张量代数的操作。

    • 张量缩并层(TCL)降维
    • 张量回归层(TRL)通过低秩多线性映射把高阶激活张量变成任意阶的输出。

    Introduction

    许多天然数据集表现出明显的多模结构。

    • 音频频谱图:二阶张量(矩阵)
    • 图片:三阶张量
    • 视频:四阶张量

    多模的数据的广义数据能被自然的叫做张量。张量方法拓展了线性代数的方法到一个高阶张量并且是主要的分析这样数据的工具。

    张量的数学性质长期以来一直是理论研究的学科。之前,在机器学习中,数据点一直被看作一个向量,数据集一直是被看作矩阵。因此,基于谱的方法(如矩阵分解)特别流行。最近,将这些技术推广到高阶张量的张量方法得到了重视。一个经典的应用是用张量分解,被用来学习潜在变量。

    深度神经网络经常操纵的是高阶张量:在一个标准深度卷积神经网络里面,卷积层的输入和激活的是三阶张量,然而,就大多数情况而言,大多数体系结构通过先展平激活张量然后通过一个或多个完全连接的层连接到输出神经元来输出预测。

    这些方法有一些问题

    • 在展平的操作过程中会损失多模信息
    • 全连接层需要大量的参数

    在这篇文章中,提出了 TCL 和 TRL 作为端到端的神经网络的训练的一部分。这样能够在没有放弃现代深度学习模型的能力和灵活性的情况下探索多线性结构。利用TCL替代全连接层,在保留多线性结构的同时聚合了远程空间信息。并且,通过低秩技术,减少了参数,并且对准确率只有很少的影响。

    我们提出的TRL通过低秩张量分解的因素表达回归权重。TRL消除了在生成输出时进行展平的需求。

    这是第一篇介绍端到端可训练架构的论文,该架构在整个网络中都保留了多维张量结构。

    尽管深度神经网络成功了,但是许多开放性问题仍然保留:为什么他们工作的效果这么好,他们是否需要那么多参数。张量方法已成为解决这些问题并更好地理解深度神经网络成功的有前途的分析工具。


    因为时间原因,主要关注这篇的写法,以及如何提炼出他的闪光点的,对其中的模型不做探讨。

    参考资料:https://arxiv.org/pdf/1707.08308.pdf

    相关文章

      网友评论

          本文标题:Tensor Regression Networks 笔记

          本文链接:https://www.haomeiwen.com/subject/uglugctx.html