@article{lu2017the,
title={The expressive power of neural networks: a view from the width},
author={Lu, Zhou and Pu, Hongming and Wang, Feicheng and Hu, Zhiqiang and Wang, Liwei},
pages={6232--6240},
year={2017}}
概
Universal approximation theorem-wiki, 这个定理分成俩个部分, 第一个部分是Unbounded Width Case, 这篇文章是Bounded Width Case (ReLu网络).
主要内容
定理1
另外, 定理1中的网络由若干个(视而定) blocks排列而成, 每个block具有以下性质:
- depth: 4n+1, width: n+4 的神经网络
- 在一个范围外其“函数值”为0
- 它能够存储样本信息
- 它会加总自身的信息和前面的逼近信息
定理2
定理3
定理4
定理1的证明
因为主要关注定理1, 所以讲下这个部分的证明(实际上是因为其它懒得看了).
假设为输入,
是
可积的, 对于任意的
, 存在
满足
定义下列符号:
则我们有:
对于, 既然
是可测的(且测度小于
), 则我们能找到有限个
维的矩体去逼近(原文用了cover, 但是我感觉这里用互不相交的矩体才合理), 并有
不出意外应该就是\.
假设有
个, 且
![](https://img.haomeiwen.com/i16313196/d7d1db3074dba03f.png)
每一个对应一个指示函数:
则
![](https://img.haomeiwen.com/i16313196/99a57bd2548d51ff.png)
这个在实变函数将多重积分, 提到的下方图形集有讲到.
于是我们有(然后拆开来就可以得到不等式)
![](https://img.haomeiwen.com/i16313196/219cee1af52dfc9d.png)
现在我们要做的就是通过神经网络拟合去逼近
, 使得
![](https://img.haomeiwen.com/i16313196/8855b927722015ac.png)
现在来讲, 如果构造这个神经网络:
一个block有4n+1层, 每层的width是n+4, 注意到所有层的前n个Node都是一样的用来保存样本信息. 我们用 表示第
个Unit(每个Unit有4层)的第
层的第
个Node.
![](https://img.haomeiwen.com/i16313196/7593a0ecbd2c79d9.png)
![](https://img.haomeiwen.com/i16313196/9207bed1b96bd330.png)
注意: 应该是, 最开始的结构图中的对的. 我们来看一下, 什么样的, 会使得不为0.
如果, 这里
是一个任意小量, 和上文中的
没有关系. 此时(当
)
当足够小的时候
此时, 类似地, 可以证明, 当
的时候,
时,
, 否则为0.
的定义是类似的, 只是
可以证明, 当, 且
的时候,
, 这样我们就构造了一个指示函数, 如果这个这函数对应的
为1则将
存入n+1 Node, 否则 n+2 Node (实际上, 我感觉应该存的是
), 则
这里相当于
. 所以多个blocks串联起来后, 我们就得到了一个函数, 且这个函数是我们想要的.
![](https://img.haomeiwen.com/i16313196/57fe53e3a19ffee9.png)
![](https://img.haomeiwen.com/i16313196/6de14bda83786fe9.png)
这个直接通过超距体体积计算得来的, 我们只需要取:
![](https://img.haomeiwen.com/i16313196/7608f27093920c1b.png)
![](https://img.haomeiwen.com/i16313196/3cc30c58d3653a5c.png)
最后
令,便有
此即定理1的证明.
网友评论