人工智能相关的知识体系包括:数理统计基础、优化理论、数据挖掘和机器学习(深度学习)算法、模式识别(从原始图片、视频、语音等信息中提取特征)等 。
数据挖掘也是人工智能不可或缺的一部分,其受多学科领域的影响,包括数据库、机器学习、统计学。
数据挖掘里面特有的关联分析(频繁模式),常被用来做决策。
核心技术:
人工智能、机器学习和深度学习是包含关系。
机器学习只是人工智能的一种非常有效的实现方法,但人工智能绝对不只是机器学习。而深度学习只是实现机器学习的一种非常有效的技术,但机器学习绝对不只是深度学习。所以深度学习只是目前最热,但不意味着终点(大数据小任务,小数据大任务)。
机器学习=模型(含参数)+目标(损失函数+正则)+算法(优化)
机器学习主要有四类学习方法:有监督(分类、回归),半监督,无监督(聚类)和强化学习,标记样本的由多到少。
监督学习最常见,商业应用最成熟,比如,GBDT,RF,回归(lasso),时序预测(AR自回归),C(R)NN,ResNet。
迁移学习与半监督学习从不同的角度解决标注样本少的问题,均基于相似性的假设,迁移学习目前商业还不广泛。
无监督学习包括PCA,聚类等算法,在GAN(生成对抗网络)的出现和推动下无监督学习将会成为实现通用人工智能的关键成分(LeCun)。
那么,强化学习,会成为人工智能的新希望吗?
那么人工智能所需要的数学基础:
①线性代数(将具体事物抽象为数学对象):向量(n维空间上的点)、矩阵(对点在空间上做变换)、矩阵的逆(行向量的线性相关)、协方差矩阵(两个变量相关性)、范式(正则)、二次型、相似矩阵和对角化、特征值、特征向量、SVD奇异值分解(PCA)、Hessian和Jacobi矩阵。
②概率论与数理统计(描述对象的统计规律,以小见大):概率论也是人工智能研究中心必备的数学基础,理解生成模式和判别模型、频率学派认为先验分布是固定的,模型参数要靠最大似然(MLE)估计计算;贝叶斯学派认为先验分布是随机的,模型参数是靠后验概率最大化计算(MAP);数理统计的任务是根据可观察的样本反过来推断总体的性质,比如参数估计的点估计和区间估计;假设检验通过随机抽取的样本本来接受或拒绝关于总体的某个判断,常用于估计机器学习模型的泛华化错误率。
③最优化理论(寻找最优解):几乎所有的人工智能问题最后都会归结为一个优化问题的求解。最优化理论研究的问题是判定给目标函数的最大值(最小值)是否存在,并找到令目标函数取到最大值(最小值)的数值。通常情况下,最优化问题是在无约束情况下求解给定目标函数的最小值(拉格朗日乘子法和对偶问题);在线性搜索中,确定寻找最小值的搜索方向需要使用目标函数的一阶导数和二阶导数(泰勒展开式);以人工神经网络为代表的优化方法(梯度,批梯度,随机梯度,牛顿法等)。
④信息论(定量度量不确定性):
不确定性就是客观世界的本质属性。不确定性的世界只能用概率论模型来描述,这促成信息论的诞生;信息论使用“信息熵”的概念,对单个信源的信息量和通信中传递信息的数量和效率等问题做出了解释。信息增益是分类问题中的重要参数(DT):交叉熵用于描述两个不同概率分布之间的差异常被用做损失函数。
网友评论