美文网首页
产品经理也能动手实践的AI(四)- 多标签识别,图像分割

产品经理也能动手实践的AI(四)- 多标签识别,图像分割

作者: Hawwwk | 来源:发表于2019-04-13 15:38 被阅读0次

    上一篇讲了

    产品经理也能动手实践的AI(三)- 深入图像识别,在线辨猫

    ,形象的说明了SGD的原理,就是如何将一个线性函数你和到我们预设的散点图上。今天主要讲2个案例,1个核心模块,分别是卫星图像的多标签识别,图片分割着色,数据块这个核心模块。

    这也是图像识别的最后一课了,我承认到这里可能就有点枯燥了,因为有很多需要消化的东西,不过我觉得重点是大概理解这是怎么一回事儿,以及把自己关注的点研究明白,不见得每个细节都要在一开始搞明白。

    接下来就会讲解NLP和协同过滤,而且这节课也没有什么特别全新的东西,都是细节上的提升或者更详细的讲解。而我印象最深的就是u-net这个模型,以及他的lr(指代Learning Rate学习率,下文都会直接用lr来代替)训练方式,是先增后降。

    1.概览

    本节课主要讲解的是多标签识别(用卫星图像预测天气),图像分割(用不同颜色区分行人、道路、房子等),还有支持这两种类型的核心模块 - data block。

    这是卫星图片,以及对应的标签

    这是如何将一副路边的图像,用无人驾驶的视角按类别变成色块

    2.1核心流程

    • 下载数据(这一节主要来源于公共数据库)

    • 创建databunch(data block的核心流程)

      • 准备输入的数据

      • 划分训练组和验证组数据

      • 给输入的数据打标签

        • 「可选」变形

        • 「可选」增加测试组

      • 转化成databunch

    • 创建learner

    • 开始训练

    • 调优

    2.2核心数学概念

    • 通用逼近定理:当有一组线性和非线性函数,你就可以做出一个无线接近任意函数的函数。

    2.3核心机器学习概念

    • flip翻转:在transform的时候,可以随机水平翻转或者垂直翻转图像,来提高训练的准确度,默认是水平翻转,比如训练识别猫的AI,而识别卫星图像的就可以同时垂直旋转;

    • warp透视:和45度拍照显脸小是一个道理,就相当于对一个正面拍摄的照片做了一个透视处理,虽然都是你本人,但是在图像上呈现的效果不同,所以这样的处理可以提高识别准确度;

    • normailize规范化:后面会专门讲

    • threshold阈值:主要是多标签时用,因为识别时会有N个结果,不像单标签,选最大的那个就行(argmax),这里要选threshold值以上的;

    • DataSet:数据集,只有getitem和len属性

    • DataLoader:用于把DataSet中的数据,按要求抽取成一个个mini-batch

    • DataBunch:训练组DataLoader和验证组DataLoader的组合

    • Mixed Precision Training 混合精确训练:创建learner时用16bits代替32bits,需要GPU支持

    2.4核心Python、FastAI、Jupyter等命令

    • !:是在Jupyter Notebook中执行命令行的操作,如:# ! conda install -y -c haasad eidl7zip

    • Pandas:处理表格数据和常用库,比如查看数据:df = pd.read_csv(path/'train_v2.csv')

    • partial:Python3的特性,可以非常方便的生成一个具备固定参数的函数,这样代码看起来就更好懂,比如:acc_02 = partial(accuracy_thresh, thresh=0.2)

    • .shape:Image.shape 会给出这个tensor的大小,主要是包含channels,类似于维度,这个之后会讲 (channels x height x width)

    • .plot:把学习过程的数据打出来,loss,lr,等各种指标

    • lambda:匿名函数,即没有函数名的函数,例如输入x返回x+1:result = lambda x:x+1

    • 双斜杠:Python里相除取整的意思,比如size = src_size//2 

    3.1实例详细分析(用卫星图像预测天气)

    上一节讲的是通过Google image自己找图片然后自己下载下来,打上标签。这一届直接用Kaggle竞赛提供的数据。

    • 下载数据

      • 注册Kaggle

      • 安装Kaggle下载工具 ! pip install kaggle --upgrade

      • 授权

        • 创建API Token - kaggle.json

        • 下载并传到自己的Jupyter目录

        • 接受该卫星项目许可(不然会遇到下载失败情况)

      • 下载数据下载 kaggle competitions download -c competition_name -f file_name.

      • 解压缩数据 需要安装edil7zip

    • 创建DataBunch

      • 先养成查看数据的习惯,看目录结构,看数据样本 pd.read_csv

      • 准备输入的数据 ImageFileList.from_folder(path)

      • 划分训练组和验证组数据 random_split_by_pct(0.2)

      • 给输入的数据打标签 label_from_csv()

        • 「可选」变形 transform(tfms, size=128)

        • 「可选」增加测试组

      • 转化成databunch databunch().normalize()

    • 训练模型

    • 调优

      • 核心小技巧:先训练128x128尺寸的图像,然后再用迁移学习,训练256x256尺寸的图像,这样又快又准

    3.2实例详细分析(图像分割,用不同颜色区分行人、道路、房子等)

    • 下载数据,通过内置的Camvid数据库

    • 查看数据,找到一条数据,用open_mask打开看看

    • 创建databunch  SegmentationItemList.from_folder(path_img)

    • 创建learner 使用u-net代替CNN来训练模型

    • 开始训练 

    • 调优

    3.3原理详细分析

    learn.recorder.plot_losses() 

    learn.recorder.plot_lr()

    为什么lr会先升后降呢,这就是fit_one_cycle做的方式,因为相对而言,这种学习效率更高,形象点说就是先探探路,然后再大步走,感觉方向对了,就逐渐放慢脚步,然后到达那个最优点。如下演示的是以一个固定的lr,如下分别是lr为0.1,0.7,0.99,1.01时的机器的学习路径,看到0.7是最快接近底部,也就是loss最低的时候,而过低的lr和过高的lr都会影响效率,而高到一定程度反而会无法触达底部。

    这是一种比较理想的情况,而实际应用中不会有这么平滑的弧度,肯定有各种小坑,而那时,固定的lr很容易陷到某一个小坑中而得到了不够理想的准确度,俗称拟合不足。

    所以这里采用了更加动态的lr,只需要设定一个上限值,系统就会自动生成一个lr的抛物曲线,然后得到更准确的模型。

    4.最后

    本节课还讲了一个用回归模型识别头部中心点的例子,以及如何用IMDB数据预测评论的正负面情绪(NLP),之后的课程有更详细的讲解,所以这里就先不展开。

    相关文章

      网友评论

          本文标题:产品经理也能动手实践的AI(四)- 多标签识别,图像分割

          本文链接:https://www.haomeiwen.com/subject/fixrwqtx.html