美文网首页IT@程序员猿媛读书想法
神经网络基础4 - 损失函数

神经网络基础4 - 损失函数

作者: 心水 | 来源:发表于2019-05-01 16:48 被阅读49次

假设让你写一个程序,让它能识别图片上的数字5,你能想到几种方法?


神经网络基础4 - 损失函数

第一种方法是你绞尽脑汁写一个识别算法,第二种方法是你提取图片中可能代表数字5的一些特征向量,然后利用传统的机器学习方法训练出一个模型去识别。
第三种方法就是使用神经网络了,相比第二种方法来说,神经网络的优势在于它不需要人为地去设计和抽取原始数据中的特征数据,直接能从原始数据获得最终的结果,所以神经网络又被称为端到端的机器学习。

神经网络基础4 - 损失函数

神经网络需要根据历史数据自动试出最优的权重参数,那什么才算是最优的呢?这里就需要引入损失函数的概念,损失函数代表了一个神经网络优劣的指标,损失函数有很多,最有名的叫均方差

神经网络基础4 - 损失函数

这里,yk 是表示神经网络的输出,tk 表示训练数据,k 表示数据的维数。以数字识别为例,对于数字5的图片,

tk = [0, 0, 0, 0, 0, 1, 0, 0, 0, 0] 其中每个数字代表了概率,第6个数字为1,代表了是数字5的概率为100%

如果神经网络计算出来的实际值是:

yk = [0.1, 0.05, 0.0, 0.0, 0.05, 0.1, 0.6, 0.1, 0.0, 0.0]

那么损失函数的值就是0.097500000000000031,可以看出损失函数的值越小,神经网络越优。

所以,神经网络的训练过程其实就是寻找最小损失函数的过程。

相关文章

  • 神经网络基础4 - 损失函数

    假设让你写一个程序,让它能识别图片上的数字5,你能想到几种方法? 第一种方法是你绞尽脑汁写一个识别算法,第二种方法...

  • Pytorch_第六篇_深度学习 (DeepLearning)

    深度学习 (DeepLearning) 基础 [2]---神经网络常用的损失函数 Introduce 在上一篇“深...

  • 【吴恩达机器学习】第五周—神经网络反向传播算法

    第五周—神经网络、反向传播算法和随机初始化 1.神经网络的损失函数 神经网络模型中损失函数/代价函数和之前的逻辑回...

  • 06.神经网络学习-2

    神经网络的优化目标 数学目标 不论损失函数是什么形式,神经网络的优化目标都是使得损失函数最小化。对于均方误差函数和...

  • 深度学习面试题

    一、神经网络基础问题 (1)Backpropagation(反向传播) 后向传播是在求解损失函数L对参数w求导时候...

  • (三)Pytorch神经网络

    一个完整的神经网络训练总体流程:1.定义神经网络2.输入数据进行迭代3.损失函数计算损失4.梯度反向传播5.更新网...

  • BP神经网络拟合非线性函数

    本章涉及知识点:1、多层神经网络的数学模型2、前向传播算法3、经典激活函数4、经典损失函数5、神经网络的优化过程6...

  • 深度学习入门-mini-batch学习

    神经网络的学习所用指标是损失函数。两种常用的损失函数: 均方误差: y是神经网络输出,t是监督数据 交叉熵误差: ...

  • [pytorch]如何将label转化成onehot编码

    之前用octave学习神经网络的时候,用逻辑回归,激活函数是sigmoid,损失函数是交叉熵损失函数,那个时候不用...

  • Chapter4_神经网络的学习

    神经网络的学习 学习:从训练数据中自动获取最优权重参数的过程 指标:损失函数 目的:以损失函数为基准,找到能使损失...

网友评论

    本文标题:神经网络基础4 - 损失函数

    本文链接:https://www.haomeiwen.com/subject/aglwnqtx.html