美文网首页
1、激活函数

1、激活函数

作者: 竹然枫 | 来源:发表于2017-10-15 11:11 被阅读0次

这大概会是一个开始。

选用这个标题,源于神经网络的术语。数量巨大的结点迭代、卷积成巨大的能量,蠢蠢欲动。只待这最后一道工序,便将亿万次的运算释放。

一个开始,也是一个质变的过程。

又想开始写点东西了,关于自己,关于生活。理工科严谨的思维常态终究是容易使得思维疲惫的,于此,便是时候伸出感性的触角去放松须臾,就像亿万次运算最终还是需要那么一个片刻,在激活函数的温床里小憩。这是极科学的事情,也是极随性的事情。

所以便有了这个文件夹,这个文档。

定义一个开始,也不考虑到哪里结束,这将是我生活里一个在规划之外的存在。也将是一个必要的存在。

至于写什么、给谁看。

那就看造化了。

也许是看算法时的灵光乍现,也许是情绪低落或者高涨时的一点记录,也许是无所谓的几声叹息或者灵魂的咳嗽,也许就是那么些不成熟的牢骚和嗡嗡声。

重点是我写了,然后满足。

至于给谁看,也许这些文字会永远只有我一个人看,也许这些文字会被未来我生命里最重要的几个人看,也许会给全世界看,也许会给宇宙中的智慧看。

骚人对于自己的文字,从来不吝给到最广泛的人群,因为那是一种荣耀,也是一种释放。所以,在这方面,怕是可以自比一下了。

但凡做事,总有个规约,那么,也给自己立个规矩吧。为免不务正业之嫌,特此声明,写则写已,过后则不再费心神,每日也以至多一小时为限,时刻一到,便搁笔不谈,继续沉醉算法、语言、深度学习之流,一笑而已,写后即忘。

相关文章

  • 关键概念

    1.激活函数 主要的激活函数(Activation Functions)包括: sigmoid tanh ReLU...

  • 1、激活函数

    这大概会是一个开始。 选用这个标题,源于神经网络的术语。数量巨大的结点迭代、卷积成巨大的能量,蠢蠢欲动。只待这最后...

  • 激活函数softmax-P2分类任务

    激活函数种类激活函数作用 激活函数 深度学习常用激活函数之— Sigmoid & ReLU & Softmax 深...

  • 神经网络[输出层]激活函数的选择

    目录 1.输出层激活函数的选择 2.Softmax激活函数的特征 3.Softmax激活函数的实现以及优化 对于机...

  • 深度学习-激活函数与优化器

    1,激活函数 具体激活函数参见此篇https://www.jiqizhixin.com/articles/2017...

  • 01 神经网络激活函数

    q1:激活函数是干嘛的? q2:激活函数有哪些分类? q3:现在最好用的激活函数是哪些?为什么好用? ------...

  • 激活函数作用

    1、激活函数作用 解决不能用线性方程概括的问题 感知机原方程:(线性) 添加激活函数:(非线性化) 注意:激活函数...

  • ReLU和Dropout

    概述 从解决最小的问题开始。 1 激活函数 ReLU家族的激活函数通常是神经网络中激活函数的首选项,其优点在于: ...

  • 如何选择激活函数

    激活函数在设计神经网络上很关键。隐藏层的激活函数影响的是学习,输出层影响的是输出。 概述:1.激活函数2.隐藏层的...

  • 6.神经网络训练细节part1

    一、激活函数 前边我们学到,一个节点的输出会进入激活函数进行处理 常见的激活函数有以下 sigmoid激活函数 s...

网友评论

      本文标题:1、激活函数

      本文链接:https://www.haomeiwen.com/subject/udgquxtx.html