美文网首页AI学习资源Python语言与信息数据获取和机器学习
资源 | 多伦多大学“神经网络与机器学习导论”2017年课程表

资源 | 多伦多大学“神经网络与机器学习导论”2017年课程表

作者: AI科技大本营 | 来源:发表于2017-07-03 18:18 被阅读44次

    翻译 | AI科技大本营(rgznai100)

    Hinton大神独步天下的人工智能课程——多伦多大学“神经网络与机器学习导论”,2017年课程表上线了。

    你可能没学过这门课,但了解机器学习的你一定有听过这门课的大名。今年冬季学期,这门课将交由多伦多大学助理教授Roger Grosse主讲。

    如果你还不知道这位教授,请一定要了解一下他在Google Brain实习的本科学生Aidan Gomez,AI100对此做过专门报道:牛!他本科没毕业就进入Google Brain,还发表了最火的深度学习顶级论文... 你呢?

    闲话少说,我们直接来看 CSC321 "Intro to Neural Networks and Machine Learning" 的课程表:

    http://www.cs.toronto.edu/~rgrosse/courses/csc321_2017/

    第1课:导论

    什么是机器学习,什么是神经网络,它们能够做什么?

    监督式学习、非监督式学习、以及强化学习呢?

    本课程的组织安排。

    第2课:线性回归

    线性回归,一种监督式学习模型,通过它你可以预测得到一个目标值。

    以最优化问题的形式呈现它,并且通过直接求解方程或者梯度下降算法进行求解。

    向量。特征映射和多项式回归。泛化:过拟合、欠拟合、验证。

    第3课:线性分类

    二元线性分类。线性分类器可视化。感知器算法。线性分类器的局限性。

    第4课:分类器学习

    二元分类器损失函数比较。

    交叉熵损失、Logistic激活函数、Logistic回归。

    Hinge 损失。多向分类。凸损失函数。梯度检验。

    第5课:多层感知机

    多层感知机。激活函数比较。

    把深度神经网络视为函数和特征学习。

    线性神经网络的局限性和非线性网络的普适性。

    第6课:反向传播算法

    反向传播算法,一种用于计算梯度的方式,在整个课程中我们都会用到它。

    第7课:优化

    如何使用反向传播算法得到的梯度。

    损失函数特征:局部最优解,鞍点,平顶,低谷。

    随机梯度下降算法和momentum算法。

    第8课:自动微分法

    由助理教授David Duvenaud授课

    第9课:泛化

    偏差/方差分解,数据增强,限制模型复杂度,提起结束,权重衰减,集成算法,随机正则化,超参数优化。

    第10课:分布式表征

    语言模型,n-gram模型,神经网络语言模型(一种分布式表征),skip-grams (另一种分布式表征)

    第11课:卷积神经网络

    卷积操作。卷积层和池化层。等变异数和不变性。

    卷积神经网络的反向传播算法规则。

    第12课:图像分类

    卷积神经网络架构在手写数字和物体分类方面的应用。

    卷积神经网络大小的测量。

    第13课:玩转卷积网络

    卷积神经网络可视化:导向型反向传播算法,输入数据梯度下降。

    Deep Dream。神经网络风格迁移。

    第14课:递归神经网络

    递归神经网络。时间轴上的反向传播。

    递归神经网络在语言模型和机器翻译中的应用。

    第15课:梯度爆炸和消失

    为什么递归神经网络梯度会爆炸或者消失,从两个角度进行分析:第一,反向传播机制;第二,递归神经网络计算的函数。

    对应的措施:梯度裁剪、输入反转、LSTM

    第16课:ResNet与Attention

    深度残差网络。

    基于Attention模型在机器翻译和字幕生成方面的应用。

    神经网络图灵机。

    第17课:学习概率模型

    最大似然估计。贝叶斯参数估计基础和最大化后验估计。

    第18课:混合模型

    K-means。混合模型:后验推断和参数学习

    第19课:玻尔兹曼机

    玻尔兹曼机:定义;边缘和条件概率;参数学习。受限玻尔兹曼机。

    第20课:自编码机

    主成分分析;自编码机;逐层训练;将自编码机应用于文件和图像的获取

    第21课:贝叶斯超参数优化

    贝叶斯线性回归;贝叶斯优化

    第22课:对抗学习

    对抗学习案例;生成式对抗网络(GANs)

    第23课:围棋

    “AlphaGo人机对战”

    怎么样,看到最后一节AlphaGo有没有眼前一亮的感觉?这就是紧跟技术发展的国外课程,跟国内不一样的地方。

    当然,如果你还是怀念Hinton大神的亲自讲授,你总是可以找到他的Coursera页面:https://www.coursera.org/learn/neural-networks

    相关文章

      网友评论

        本文标题:资源 | 多伦多大学“神经网络与机器学习导论”2017年课程表

        本文链接:https://www.haomeiwen.com/subject/btszcxtx.html