美文网首页我爱编程
7🈷28 关于AI和深度学习

7🈷28 关于AI和深度学习

作者: 吟巧 | 来源:发表于2017-07-29 09:59 被阅读0次

    一 AI 背景 - 深度学习的兴起

    1 关键性应用

    其实还没有。无人驾驶 (汽车 和 飞机),目前也只是实验阶段。

    AI前沿介绍  描述一线公司的主要AI产品 。这里面囊括 了医疗,编辑,翻译 , 定位技术。这些产品还并没有被大众所熟知。但是这些已经足够显示AI的力量了。

    2 AI的身边的应用举例

    图像分类  拍立淘

          美国计算机协会(ACM)公布了2015年度杰出科学家名单,在上榜的两位亚裔学者中,阿里巴巴图像搜索的领军人物、阿里巴巴搜索事业部研究员华先胜位列其中。

          国际电气与电子工程师协会(IEEE)也公布了华先胜当选2016年度IEEE Fellow(IEEE会士)的消息,以嘉奖其“为多媒体内容分析和图像搜索做出的突出贡献”。

            广告推荐算法

            基于语音的 谷歌的机器翻译

    3 艺术文化和 深度学习

    Google Deep Dream

    Prisma

    Neural Style 

    二 深度学习 的 科普

    2.1 线性分类器, 分类和聚类算法

        线性分类器里面最简单的例子是 大学物理里面, 用打点计时器在纸条上打点。实际上拟合的函数 是 v = gt

    2.2 DNN - 深度神经网络

    假设我们要预测 美国 的 房子 和 总价格 的 关系,这时我们的参数不只一个了

    2.3  拟合 和 欠拟合 , 训练集和测试集(验证集)

      3.1欠拟合(Over fittintg)  训练误差比较大

            1 参数少,因为过度关注精简计算量引起的。

            2 使用的网络不对

        3.2 过拟合()  测试误差 比 训练误差大

              1 训练样本少 

              2 参数过大

    解决方法:  解决过拟合的最主要的思想,是先保证参数和问题域相符合。通过增加训练误差 减少测试误差。

                  1 dropout  (随机失活)在同一个模型上训练处不同的参数 2 提前终止迭代次数  3 增大训练样本

    2.4 loss 函数和 优化器

      4.1 支持向量机  -- 基于核函数的算法

      4.2 交叉熵 SoftMax

    5 卷积神经网络  CNN 和 图像滤波 (

          卷积 核 和 滤波, 使用卷积和对 图像特征进行抽取。

          优点 :1 共享卷积核参数,优化了计算量  2 不需要手动选取图像特征 (相比以前的机器学习算法,使用SVM的分类算法,简化很多) 4 抽取的图像信息丰富,表达效果好

          缺点 :  1依赖GPU硬件  2 需要大量的样本 3 隐层的输出物理意义对人类来说较难理解。

    比如说猫,神经网络是怎么理解一只猫的,这跟我们人类大脑怎么理解一只猫是一类的问题,我们用卷积的方式

    • LeNet,这是最早用于数字识别的CNN

    • AlexNet, 2012 ILSVRC比赛远超第2名的CNN,比

    • ZF Net, 2013 ILSVRC比赛冠军

    • GoogLeNet, 2014 ILSVRC比赛冠军

    • VGGNet, 2014 ILSVRC比赛中的模型,图像识别略差于GoogLeNet,但是在很多图像转化学习问题(比如object detection)上效果奇好

    • FCN, Fast-RCNN,Faster-RCNN 是目标检测界的领军人物Ross Girshick团队在2015年的又一力作。简单网络目标检测速度达到17fps,在PASCAL VOC上准确率为59.9%;复杂网络达到5fps,准确率78.8%。

    6 NN 框架

    Caffe  比较高效,一般的训练无需写代码,有python和mathlab的接口

    1 需要先把图片转换成LMDB格式

    2 定义网结构

    3 定义solver

    4 一行命令开始训练

    比较早期的框架,也是出产品比较多的框架。但是是由C++写的。所以发展比较慢了。

    Tensorflow

    谷歌开源的一个框架,社区非常活跃。写法相比Face的PyTorch比较繁琐

    PyTorch 对于显卡的利用效率比较高的框架。加上Torch本身的简洁的用法。比较受欢迎。

    上层框架

    Keras , TFLearn

    8 迁移学习

    迁移学习其实只是一个工程经验。既然深度学习大部分的工作是在训练和优化神经网络,那么被大型数据集训练过的网络参数就具有良好的泛化误差。在数据集很小的时候,如果存在着相似的被训练良好的网络,那么就可以利用已经训练过的 特征抽取的参数。

    https://zhuanlan.zhihu.com/p/21470871

    http://blog.csdn.net/qq_26898461/article/details/53557612

    10 例子演示

    相关文章

      网友评论

        本文标题:7🈷28 关于AI和深度学习

        本文链接:https://www.haomeiwen.com/subject/uuztlxtx.html