美文网首页深度学习
神经网络实践经验(4)

神经网络实践经验(4)

作者: 卡德尔先生 | 来源:发表于2018-06-01 19:27 被阅读0次

前言

地铁上无聊码的,思路比较凌乱

4. 现代神经网络的目标

我认为,现代神经网络的目标只有两个

1. 过拟合与欠拟合的调试

3. internal covariance shift

过拟合和欠拟合的调试

神经网络的过拟合与欠拟合一直是个恒古不变的话题

如何能够防止神经网络产生没意义的特征工程和做出有意义的特征工程,就是这方面的一个问题

mlp擅长过拟合,因为他会提取完全无关系的神经元之间的关系并作为特征。而局部连接的一些神经网络可以减少这样的操作。

但cnn也不是完全都恰当好处的特征提取,所以在架构与架构之间产生非常大的差别,nin和alexnet的参数数量可以差十倍却有差不多的效果

神经网络都追求较少的参数,也是希望减少过拟合

与传统机器学习方法不同,神经网络增加模型容量可谓是简单至极。你希望的话,可以把cnn叠个一万层

分分钟过拟合

所以大部分情况下都是在解决过拟合问题

很多网络架构都在探究用最少的参数做出最好的效果,即减少过拟合程度,也是如此

internal covariance shift

(不是很会翻这个词,内部协变量转移?一下简称ics了)

(一点注意的是ics和covariance shift不同。covariance指的是模型在testing和training集的差,而ics就是梯度爆炸和梯度消失神马的)

ics:the change during training due to the change in parameters(《batch normalization》)

我擅自将其解释为类似梯度爆炸和梯度消失的问题

这是我第一次看到这个词的定义

但是相似描述的情景在densenet和resnet的论文中也有描述

过深的网络不好训练,训练的结果也不太好

现代很多网络的研究就在于解决这个问题

batch normalization通过标准化来解决这个问题,同时用两个可学习的参数去减轻标准化对特征的破坏

densenet和resnet都通过较远的神经元的连接的方式去减轻这个问题

当然resnet和densenet思路有点小不同

resnet想学习的是ΔW

densenet疯狂地追求前后连接

但本质差不多(densenet如是说)

结语

本文只是一个大二学生的粗鄙之语

自己还是论文看少了

比如resnet和densenet都提到的一个f什么net我就没看

还有其实很多问题,神经网络也不像我说的这么简单

就当以上内容纯属虚构和胡说八道吧

相关文章

  • 神经网络实践经验(4)

    前言 地铁上无聊码的,思路比较凌乱 4. 现代神经网络的目标 我认为,现代神经网络的目标只有两个 1. 过拟合与欠...

  • 神经网络实践经验(1)

    神经网络实践经验(1) 前言 本系列是本人记录在自己实践中遇到的很多读死书无法学习到的经验,不完全脱离理论,甚至说...

  • 神经网络实践经验(2)

    前言 本人萌新,请多指教 2. 1x1卷积层的作用 我们都知道,CNN强于MLP的地方在于其局部连接性减少了过拟合...

  • 神经网络实践经验(3)

    3. 慎用keras的binary_crossentropy 有的时候我们在用神经网络训练二分类模型的时候,我们常...

  • 神经网络(一)

    神经网络 1. 神经网络基础 2. 浅层神经网络分析 3. 卷积神经网络 4. 卷积神经网络MNIST数字图片识别...

  • 神经网络(二)

    神经网络 1. 神经网络基础 2. MNIST数据集浅层神经网络分析 3. 卷积神经网络 4. 卷积神经网络MNI...

  • DL4J中文文档/模型/RNN(循环神经网络)

    DL4J中的循环神经网络 本文概述了在DL4J中如何使用循环神经网络的具体训练特征和实用性。本文假定对循环神经网络...

  • 《机器学习》Chapter4 人工神经网络

    Chapter 4 人工神经网络(ANN) 知识汇总:

  • UIScrollView 实践经验

    UIScrollView 实践经验 UIScrollView 实践经验

  • 深度学习资源链接

    1、感知机 2、线性单元和梯度下降 3、神经网络和反向传播算法 4、卷积神经网络 5、循环神经网络 6、长短时记忆...

网友评论

    本文标题:神经网络实践经验(4)

    本文链接:https://www.haomeiwen.com/subject/yrwksftx.html