经过最近一段时间的调研学习,我对人工智能计算平台有了新的认识,它的本质就是要通过数据+建模算法
训练出一个可以预知未来的模型
,那么一个好的计算平台需要为用户在数据
以及建模算法
这两个核心要素上提供极大的便利。
那么我们如何才能做到这一点呢?
1. 完整的建模流程
下图是我猜想的一个完整的建模流程:
image.png
下面做一个描述:
- 创建工程:即为了某一个业务方向而创建的一个工程,工程内部系统会规划出不同的目录结构。
- 获取数据集:这个数据集有可能是网上现成的,也有可能是自己造的,也有可能是自己通过网络爬虫自己爬的,总之什么都有可能
- 数据处理和特征工程:要将现实中采集到的数据进行数据加工、清洗、特征提取、向量化、变成数据公式能识别的数字特征
- 正式数据集:即可以向量化的数据集,这些数据可以保存在文件中,也可以保存在数据库中。(像mnist,cifar10这种数据集,都是别人处理好的数据集,现实中一个数据集的生成是需要经过大量的加工处理的)
- 建模:理论上,我可以对一个数据集,采用多种建模算法,这个算法可以是
机器学习
中的各种算法,也可以是深度学习
中的各种算法。即我可以建多个算法模型,最后通过实际训练及评估来确定哪个算法产生的模型是最好的。 - 训练、调参、评估:与上面是配套的
- 生产模型:将最后评估出来最好的模型,保存到模型库中。
所以我们以前的系统是很狭隘的:
- 不能对数据集做任何处理
- 只能做
深度学习
2. 平台设计思路
2.1 功能角度
前面提到我们要在数据
与建模算法
两方面为用户提供便利,那么首先我们系统必须要包含这两个功能:
- 数据:获取数据集、数据加工、特征提取等
- 建模算法:系统要能支持多种建模算法,深度学习只是其中的一部分
2.2 用户角度
再从用户角度看看,我们系统核心用户是数据科学家
,这些号称科学家的科学家们,又可能要分为两类人:一类是会敲代码的;一类是不会敲代码的。结合这段时间研究h2o
以及kaggle
,我决定让系统提供两条建模途径:编码式建模
和可视化建模
。
2.3 架构角度
如果提供了两条路,这两条路是相互隔离的,还是有交叉的,还是完全互通的呢?理想情况下,肯定是两条路完全互通是最好的。
再回到问题的源头,一个完整的建模流程中,涉及到哪些实实在在的东西?
- 数据是实实在在的
- 模型算法是实实在在的
- 保存的模型文件是实实在在的
如果要两条路基本互通
,我们需要让上面提到的三点实实在在的东西,相互都能认识。即数据
、模型算法
、模型文件
必须在两条路中是兼容的。在来分别看看这三者:
- 数据:这个没有任何问题,就是文件或者是数据库表,只要保存下来,大家都能认识
- 模型算法:这个就有问题了,外部世界中有无数的机器学习框架,也有无数的深度学习框架,不同的框架,写出的算法模型都不相同;而我们通过可视化界面所支持的模型算法肯定是有限的(悲观估计,以我们的能力,顶多能支持一两个框架就了不得了)
- 模型文件:同上面的问题一样,不同的计算框架,貌似生成的模型文件格式都不一样,比如
tensorflow
生成的是什么pb格式的serving模型
,而像h2o
平台生成的模型,其实是一个jar包
,还有像spark ml
生成的模型,也是其特有的格式
我总结出的结论是,我们在
数据
上是可以完全互通的,在模型算法
以及模型文件
上能做到相对互通。即以可视化平台所支持的计算框架
为基准,提供对这些模型算法
以及模型文件
的共享和互通!
2.4 结论
升级后的系统,我想达到以下几点效果:
- 系统业务功能,能按照上面梳理的建模流程来
- 全面调整之前的深度学习结构,将其定位为系统中一个普通的算法
- 提供建模的两条路,
可视化建模
和编码式建模
- 提供数据层面的完全共享,提供模型算法及模型文件层面上的部分共享
以下是平台建设示意图:
image.png
这张图是本次系统升级的核心!
因为我们要做到数据共享,所以两条路的各种结果文件必须是底层统一处理的,这就要求我们在编码式建模方向上,为用户提供一些系统内置函数支持。
需要底层提供哪些函数支持呢?我对代码实现不是很了解,初步猜测需要这些:
- 创建工程的函数
- 保存数据集的函数:保存到文件中,保存到数据库中
- 训练过程中,监控指标的函数
- 保存模型的函数
3. 原型设计结果
3.1 模型工程修改
这更多是底层实现的修改,之前一个工程是关联了计算框架
的,现在需要把这个关联拿掉,计算框架只体现在具体的建模及训练环节,而不是整个工程级的。
3.2 数据处理
在交互界面中,增加数据处理
可视化操作功能,它包含的功能有:
- 上传数据集
- 解析数据集
- 特征列数据转换
- 特征列数据补全
- 特征列数据分布图表展示
- 特征列关联性总览图表(热力图、矩阵图)
- 自定义特征列统计图表
- 保存数据集
3.3 jupyter notebook
原先做的jupyter太简单了,基本不能用。现在要正式将jupyter notebook
提高到一个核心级的功能。我们需要在最大程度上做到对jupyter notebook
的定制化,以达到以下要求:
- 用户可以选择自己不同容器中的
jupyter
服务 - 用户可以通过我们系统界面来创建可执行脚本
- 我们为用户提供的镜像中,需要默认安装大部分主流计算框架,这其中需要包含深度学习框架,也需要包含机器学习框架
- 最后再明确一下,我们的
jupyter
是运行在用户容器中的,不是运行中计算环境中的
3.4 训练界面调整
这个功能调整非常大,以前创建的一个训练,只能做来做深度学习,现在要做到既能做深度学习,也能做机器学习。所以在创建任务界面和任务执行结果界面,都需要做比较大的调整,界面需要根据不同的算法,渲染出不同的界面要素及图表。
首页是创建任务界面,我规划为四栏:
- 第一栏(算法选择):任务名称自动生成、选择计算框架、算法、训练集、测试集、验证集
- 第二栏(基本参数栏):根据不同的算法,展示不同的参数;如执行轮次、比大小、脚本、优化器等不作为超参的参数
- 第三栏(超参数栏):根据不同的算法,展示不同的超参数
- 第四栏(自定义参数):通用参数栏
其次是任务执行结果页面,需要根据不同的算法,展示不同的结果页面,这个暂时还没有想清楚。
4. 系统改动量
4.1 现有功能调整
模型工程
这个上面提到了,需要把工程与计算框架的关联关系去掉
模型训练
这是现有功能最大的调整,创建任务的界面,以及任务执行界面,需要根据不同的算法,完全做到自定义配置及展示。不同的算法会涉及到不同的前端界面展示,以及后台与微服务的调用等等。
模型评估
这次我们需要做一个完整的模型评估功能,因为现实情况下,针对不同的问题,我们需要选择不同的评估算法,远不是之前做的那一种topk
。
模型格式
这个主要是算法架构考虑,但后台系统也需要做调整,因为我们要支持不同的模型格式,去部署。
支持数据库数据集
我希望能在我们的界面上选择一个数据库数据集
4.2 新增的功能
数据处理
这是一个比较独立的功能,具体需要做哪些事,上面已经提到了。
jupyter
之所以把它也当成一个新的功能,是因为之前做的太简单了,这次要完全重新做。
4.3 算法架构的调整
算法架构这块其实是最大的变化:
- 算法架构需要提供所有主流算法(机器学习、深度学习)的支持
- 算法架构需要明确底层实现框架,明确系统支持哪几种计算框架及组件
- 需要明确统一的建模算法,做一定的抽象
- 需要提供保存数据集、读取数据集(有可能是数据库)、保存模型、记录指标等等通用的内置函数支持
- 需要统一模型文件格式
- 最重要的,需要考虑两条路线下,会有哪些坑是我没有考虑到的
最后提一点大家可能没有注意到的,就是现在将
数据处理
单独剥离出来,就将数据与建模过程解耦了,这是很好的。以前的mnist
示例中,其实是将数据处理也一并写在训练的脚本中,这个并不合理,也不利于脚本抽象!
网友评论