- [机器学习入门] 李宏毅机器学习笔记-10 (Tips for
- [机器学习入门] 李宏毅机器学习笔记-15 (Unsupervi
- [机器学习入门] 李宏毅机器学习笔记-24(introducti
- [机器学习入门] 李宏毅机器学习笔记-30 (Sequence
- [机器学习入门] 李宏毅机器学习笔记-31 (Sequence
- [机器学习入门] 李宏毅机器学习笔记-14 (Unsupervi
- [机器学习入门] 李宏毅机器学习笔记-22(Transfer L
- [机器学习入门] 李宏毅机器学习笔记-9 (“Hello wor
- [机器学习入门] 李宏毅机器学习笔记-33 (Recurrent
- [机器学习入门] 李宏毅机器学习笔记-34 (Recurrent
VIDEO |
---|
[机器学习入门] 李宏毅机器学习笔记-10 (Tips for Deep Learning;深度学习小贴士)
VIDEO |
---|
Recipe of Deep Learning
这里写图片描述这里写图片描述
在 training data上的performance不好
这里写图片描述Deeper usually does not imply better
这里写图片描述Vanishing Gradient Problem
这里写图片描述这里写图片描述
这里写图片描述
ReLU(Rectified Linear Unit)
这里写图片描述这里写图片描述
这里写图片描述
ReLU - variant
这里写图片描述那么除了ReLU有没有别的activation function了呢?
所以我们用 Maxout来根据training data自动生成activation function
ReLU is a special cases of Maxout
Maxout
这里写图片描述ReLU is a special cases of Maxout
这里写图片描述More than ReLU
这里写图片描述这里写图片描述
Maxout - Training
这里写图片描述这里写图片描述
Adaptive Learning Rate
这里写图片描述这里写图片描述
RMSProp
这里写图片描述Hard to find optimal network parameters
这里写图片描述Momentum(gradient descent 融入惯性作用)
这里写图片描述这里写图片描述
这里写图片描述
所以,加了momentum后:
这里写图片描述Adam
这里写图片描述在testing data上performance不好
这里写图片描述Early Stopping
这里写图片描述Regularization
这里写图片描述这里写图片描述
这里写图片描述
Regularization - Weight Decay
这里写图片描述Dropout
这里写图片描述这里写图片描述
这里写图片描述
Dropout- Intuitive Reason
这里写图片描述这里写图片描述
Dropout is a kind of ensemble
这里写图片描述这里写图片描述
这里写图片描述
这里写图片描述
这里写图片描述
网友评论