深度前馈神经网络--Apple的学习笔记
主要就是设计数学模型,使得误差预计与实际误差最小,然后使用梯度下降法调整参数。其中多了隐层。神经网络与机器学习的线性回归的主要区别在于基本都是处理非凸优化问题,所以会用神经网络。一般都使用交叉熵求loss,原因是处理接近饱和的梯度比较费时间。
反向传播(Backpropagation,缩写为BP)是”误差反向传播”的简称。用到了链式求导法则去更新权重参数。
参考网页
https://blog.csdn.net/fengbingchun/article/details/79881847
https://blog.csdn.net/mao_xiao_feng/article/details/53048213
https://blog.csdn.net/tsyccnh/article/details/79163834
网友评论