【嵌牛导读】:如果您具有数学和计算机科学方面的工程背景或相关知识的编码经验,只需两个月即可熟练掌握深度学习。 难以置信? 四步使它成为可能。
欲了解更多,请往下看
【嵌牛鼻子】:深度学习,机器学习,计算机视觉,记忆网络
【嵌牛提问】:你是否想拥有深度学习的能力?
【嵌牛正文】:
Step 1: 学习机器学习基础
开始于AndrewNg的机器学习 机器学习 - 斯坦福大学。他的课程介绍了目前各种机器学习算法,更重要的是机器学习的一般程序和方法,包括数据预处理,超参数调优等。
同时推荐阅读由Geoff Hinton,Yoshua Bengio和Yann LeCun提供的NIPS 2015深度学习教程,其中介绍略少一些。
深度学校如何入门 Step 2: 深入学习个人推荐是观看演讲视频,并有几个优秀的课程在线。 这里有几个特别喜欢的课程,可以推荐:
Deep learning at Oxford 2015 由Nando de Freitas教授解释基础知识,不会过于简单。 如果您已经熟悉神经网络并希望深入,请从第9讲开始。 他在他的例子中使用Torch framework。 (Videos on Youtube)
Neural Networks for Machine Learning Geoffrey Hinton在Coursera上的课程。Hinton是一位优秀的研究人员,他们展示了广义反向传播算法的使用,对深度学习的发展至关重要。
Step 3: 选择一个区域并进一步深入
确定自己继续深入学习的热情。 这个领域是巨大的,所以这个列表绝对不是一个全面的列表。
计算机视觉 : 深入学习已经改变了这一领域。 斯坦福大学的CS231N课程由Andrej Karpathy的课程是我遇到的最好的课程; CS231n卷积神经网络视觉识别。 它向您介绍了基础知识以及covnets,以及帮助您在AWS中设置GPU实例。 另请参阅Mostafa S. Ibrahim的“计算机视觉入门”
自然语言处理 (NLP):用于机器翻译,问答,情绪分析。 要掌握这一领域,需要深入了解这两种算法和自然语言的基础计算属性。CS 224N / Ling 284 by Christopher Manning 是一个很棒的课程。CS224d:自然语言处理的深度学习,另一个斯坦福大学的学者David Socher(MetaMind的创始人)也是一个很好的课程,可以解决与NLP相关的所有最新的深入学习研究。 有关详细信息,请参阅如何学习自然语言处理?
记忆网络 (RNN-LSTM) : 在LSTM中将注意力机制结合在一起的循环神经网络与外部可写内存意味着一些有趣的工作,可以构建能够以问题和回答方式理解,存储和检索信息的系统。 这个研究领域从纽约大学Yann Lecun博士的Facebook AI实验室开始。 原始文章是在arxiv:记忆网络。 有许多研究变体,数据集,基准等来源于这项工作,例如,Metamind的自然语言处理动态内存网络
深度加强学习 : 由AlphaGo着名,Go-playing系统击败了历史上最强的Go玩家。 David Silver's(Google Deepmind)的RL视频讲座和Rich Stutton教授的书是一个很好的开始。 对于LSTM的温柔介绍,请参阅Christopher关于了解LSTM网络和Andrej Karpathy的“经典神经网络的不合理有效性”。
网友评论