本篇包括很多基本概念以及链接,但是比较零散,属于看到哪儿收集到哪儿的学习笔记。
搞deep learning的人员经常调侃,说这个非常像炼丹。就是说他们也不知道发生了什么,不过是加点这个看看效果,不行就换点那个看看效果。从这种调侃可以嗅出来深度学习的相关研究人员很多都是不知道为什么是这个“药方”的,只是在这个“药方“上做一些调整,然后看效果。所以说,我们还在研究如何才能让人类理解深度学习模型中究竟发生了什么。
历届ILSVRC竞赛拔得头筹的经典模型简介
Deep Learning回顾之LeNet、AlexNet、GoogLeNet、VGG、ResNet
总的发展趋势就是,没有最深,只有更深。
目标检测
TensorFlow Slim
谷歌开放TF-Slim:在TensorFlow中定义复杂模型的高层库
这个可以显著提升TensorFlow代码的简洁度。构建一个VGGNet仅仅需要十几行代码。
Google的MobileNet
还有旷视团队推出来的ShuffleNet,ShuffleNet算法详解
这两个模型优化非常高效,构建小,延迟低,能够使用移动和嵌入式设备的视觉应用。
网友评论