原文:Implementing Batch Normalization in Tensorflow来源:R2RT ...[作者空间]
终于赶在2017年结束前,点亮了我的深度学习工作站。 配置表 工作站的选型和系统安装主要借鉴了以下两篇简书文章,都...[作者空间]
TensorFlow从0到N专题入口 当看到本篇时,根据TensorFlow官方标准《Deep MNIST for...[作者空间]
TensorFlow从0到N专题入口 上一篇3 深度学习革命的开端:卷积神经网络 快速回顾了CNN的前世今生。 本...[作者空间]
TensorFlow从0到N专题入口 关于全连接神经网络(Full Connected Neural Networ...[作者空间]
TensorFlow从0到N专题入口 上一篇1 深度神经网络我们知道,通过追加隐藏层来构建更加“智能”的深度神经网...[作者空间]
TensorFlow从0到N专题入口 上一主题《TensorFlow从0到1》介绍人工神经网络的基本概念与其Ten...[作者空间]
TensorFlow从0到N专题入口 我是黑猿大叔,转战AI的大叔程序猿,你好。 本篇是《TensorFlow从1...[作者空间]
《TensorFlow从0到1》就要结束了。 3条主线 这个部分共包含18篇文章,4万余字(简书的严格统计不到4万...[作者空间]
8月27日,Fashion-MNIST图片库在GitHub上开源,MNIST的时代宣告终结。 这不是巧合,而是Fa...[作者空间]
TensorFlow从0到1系列回顾 《TensorFlow从0到1》写到现在,TensorFlow的版本也从当时...[作者空间]
TensorFlow从0到1系列回顾 上一篇16 L2正则化对抗“过拟合”提到,为了检测训练过程中发生的过拟合,需...[作者空间]
TensorFlow从0到1系列回顾 前面的14 交叉熵损失函数——防止学习缓慢和15 重新思考神经网络初始化从学...[作者空间]
TensorFlow从0到1系列回顾 上一篇14 交叉熵损失函数——克服学习缓慢从最优化算法层面入手,将二次的均方...[作者空间]
3周前预定的Ian Goodfellow的《深度学习》中文纸质版终于到手了。 Goodfellow何许人?他师从机...[作者空间]
TensorFlow从0到1系列回顾 通过上一篇 13 驯兽师:神经网络调教综述,对神经网络的调教有了一个整体印象...[作者空间]
TensorFlow从0到1系列回顾 在未来的AI时代,“手工程序”将变得越发稀有,而基于通用AI程序,通过大数据...[作者空间]
TensorFlow从0到1系列回顾 上一篇 11 74行Python实现手写体数字识别展示了74行Python代...[作者空间]
TensorFlow从0到1系列回顾 到目前为止,我们已经研究了梯度下降算法、人工神经网络以及反向传播算法,他们各...[作者空间]
TensorFlow从0到1系列回顾 上一篇 9 “驱魔”之反向传播大法引出了反向传播算法——神经网络的引擎,并在...[作者空间]