美文网首页
神经网络训练细节part1(上)

神经网络训练细节part1(上)

作者: 听城 | 来源:发表于2018-08-26 20:45 被阅读13次

训练神经网络

神经网络的历史

  • 1960年左右,弗兰克·罗森布拉特设计了感知机
  • 1960年,威德罗和霍夫制造出了适应性神经元,他们将这些感知机整合成了一个多层次的感知机网络
  • 1986年,神经网络再次有了一个突破性进展,论文中第一次用清晰的公式很好的阐述了反向传播概念,提出损失函数,讨论了反向传播、梯度下降等问题。
  • 2006年,第一次建立了神经网络的模型,同时提出了深度学习
  • 2010年,神经网络有了非常大的成果,尤其是在语音合成方面。

激活函数

我们之前提到了激活函数有很多种,下面将着重介绍一下这些函数。

sigmoid

sigmoid有3个问题

  • 在图像的饱和区域,梯度消失
  • sigmoid函数的输出不是关于原点中心对称的
  • 相比其他激活函数,指数运算相对耗时

tanh

  • 区间在[-1,1]
  • 中心对称
  • 梯度消失

relu

  • 激活时,不会产生梯度弥散问题,即梯度不会为0
  • 计算高效
  • 收敛速度快
  • 不是关于原点中心对称
  • 当x小于0时,同样有梯度消失问题

Leaky relu

  • 不会发生梯度消失问题
  • 计算高效

ELU

  • 继承了RELU的所有优点

数据处理

  • 归一化
  • 零中心化
  • PCA
  • 图像常用下面方法


权重初始化

  • small random numbers(gaussian with zero mean and 1e-2 standard deviation)
    w = 0.01*np.random.randn(D,H)

相关文章

  • 斯坦福cs231n学习笔记(10)------神经网络训练细节(

    神经网络训练细节系列笔记: 神经网络训练细节(激活函数) 神经网络训练细节(数据预处理、权重初始化) 神经网络训练...

  • 神经网络训练细节part1(上)

    训练神经网络 神经网络的历史 1960年左右,弗兰克·罗森布拉特设计了感知机 1960年,威德罗和霍夫制造出了适应...

  • 神经网络训练细节part1(下)

    权重初始化 small random numbers(gaussian with zero mean and 1e...

  • 6.神经网络训练细节part1

    一、激活函数 前边我们学到,一个节点的输出会进入激活函数进行处理 常见的激活函数有以下 sigmoid激活函数 s...

  • 神经网络训练细节part2(上)

    回顾 训练神经网络的过程有四步组成,重复这四个步骤就可以得到完整的训练流程 需要有一个完整的数据集图像和标签,从数...

  • 神经网络的一些细节

    今天,写下一篇文章记录神经网络训练的一些细节 话说,我接触神经网络也没有多久,自己用java来实现了一个全连接的神...

  • 深度学习基础2

    Stochastic Gradient Descent 如何训练神经网络 训练神经网络就是调整权重。 这里介绍了损...

  • tensorflow教程(一)

    开始使用tensorflow 原文地址 训练首个神经网络:基本分类 对于初学者,即使不了细节也没关系,本次教程只是...

  • pytorch 入门 api

    张量操作 神经网络 训练图片分类器 多GPU训练 参考 张量神经网络训练图片分类器DataParallel多GPU示例

  • 神经网络模型+进阶

    PART I 神经网络模型 模拟数据 查看模拟数据 神经网络模型训练 可视化训练结果 神经网络模型结果评估 平均准...

网友评论

      本文标题:神经网络训练细节part1(上)

      本文链接:https://www.haomeiwen.com/subject/wvtaiftx.html