(计算机学习系统)利用经验来改善计算机系统自身的性能。——Mitchell, Machine Learning
样本数据(历史经验)——>机器学习系统——>性能(预测精度)
如何学习?学什么?
反馈类型:无监督学习、有监督学习、强化学习
常用术语:正例、正样本:负例、负样本;训练集、开发集、测试集;损失函数;学习率
状态空间模型,用来搜索?
有监督学习
辅导功课VS监督学习
有很多“样本”;每一个样本要有明确的“答案”;犯错会被“惩罚”;多次练习直至不会犯错。
K近邻算法
决策树算法
算法思想:属性在决策树中的位置不同,决策树的效率是不同的;如果一个属性对于所有的样本没有区分能力,那么对于决策毫无用处;如果一个属性能把样本分为两部分,那它是好的属性,应该放在前面。
昆兰提出利用“信息增益”来对属性进行排序
支持向量机模型(SVM)
基本思想:对于二分类的问题,将样本数据表示为空间的点
我们认为,一个样本点与分割平面的距离越远,则分类越明显;如果我们呢能找到一个平面,使的在其两侧,两类样本之间的间隔尽可能大,则该平面就是优秀的分割平面;为达到间隔最大的目标,只需要看距离平面最近的几个样本,它们代表间隔,称为“支持向量”。
无监督学习
有明确的学习目标;有样本数据;不需人工标注知识;提升难度大
聚类
类似“聚堆”
聚类算法最终要求将样本数据唯一、确定地划为某一类别;不同类别之间样本不交叉;同一类别内部样本具有较高相似度;不同类别样本相似度低。
K-means聚类算法
思路:假设每个类别都聚集在摸一个“中心点”附近;起初,任选三个点;计算直到中心点稳定。
关键问题:初始选择的3个点——选择两两距离最远的3个点;随即划分样本成3堆,以3堆的平均重心作为起始点。
自动编码器
原始数据经过神经网络“编码”,再根据编码信息“解码”,还原原有信息;适应大量样本后,编码器本身能够表示关于问题的本质。
应用:图片抗噪——原始图像添加噪声之后再进入编码器,试图生成没有噪声的图像(根据不清晰的图片改成原来清晰的图片);数据降维
其他学习
全监督学习:方法丰富、研究充分、性能好、成本高
无监督学习:方法简单、数据样本多
弱监督学习
例子:远程监督信息
半监督方法:方法简单,但远距离监督信息来源有限;往往不准确,容易引起错误
例子:社交网络上,给用户贴标签
解决思路:根据特征信息计算节点之间的相似度
迁移学习——样本迁移:寻找任务A标注数据,直接能够用于任务B的数据,训练任务B;特征迁移;模型迁移:机器翻译。
例子:图像风格的迁移学习
强化学习
强化学习认为,计算机单纯通过感知环境,与环境交互,并且从交互中获得评价反馈,就可以适应所处的环境。
基本思想:从环境中采样,抽象算法,用算法制作模型,解决环境优化问题;环境提供数据,模型把运算结果返回给环境,这时环境才给奖励;闭环过程。
奖励可以看作无监督信号。
例子:小孩学习走路,主体:小孩;环境:地板;动作:迈步;奖惩:笑脸、摔跤。
展望
强化学习的过程,实际上就是智能体适应环境的过程。与真实的生命过程也有类似之处。
目前,强化学习作为机器学习和人工智能的一个重要分支,受到越来越多的关注,许多学者也开始认为,强化学习代表人工智能未来发展的方向。
网友评论