美文网首页
机器学习(课堂笔记)

机器学习(课堂笔记)

作者: Suria007 | 来源:发表于2019-10-30 21:26 被阅读0次

    摩尔定律

    (计算机学习系统)利用经验来改善计算机系统自身的性能。——Mitchell, Machine Learning

    样本数据(历史经验)——>机器学习系统——>性能(预测精度)

    如何学习?学什么?

    反馈类型:无监督学习、有监督学习、强化学习

    常用术语:正例、正样本:负例、负样本;训练集、开发集、测试集;损失函数;学习率

    状态空间模型,用来搜索?

    有监督学习

    辅导功课VS监督学习

    有很多“样本”;每一个样本要有明确的“答案”;犯错会被“惩罚”;多次练习直至不会犯错。

    K近邻算法

    决策树算法

    算法思想:属性在决策树中的位置不同,决策树的效率是不同的;如果一个属性对于所有的样本没有区分能力,那么对于决策毫无用处;如果一个属性能把样本分为两部分,那它是好的属性,应该放在前面。

    昆兰提出利用“信息增益”来对属性进行排序

    支持向量机模型(SVM)

    基本思想:对于二分类的问题,将样本数据表示为空间的点

    我们认为,一个样本点与分割平面的距离越远,则分类越明显;如果我们呢能找到一个平面,使的在其两侧,两类样本之间的间隔尽可能大,则该平面就是优秀的分割平面;为达到间隔最大的目标,只需要看距离平面最近的几个样本,它们代表间隔,称为“支持向量”。

    无监督学习

    有明确的学习目标;有样本数据;不需人工标注知识;提升难度大

    聚类

    类似“聚堆”

    聚类算法最终要求将样本数据唯一、确定地划为某一类别;不同类别之间样本不交叉;同一类别内部样本具有较高相似度;不同类别样本相似度低。

    K-means聚类算法

    思路:假设每个类别都聚集在摸一个“中心点”附近;起初,任选三个点;计算直到中心点稳定。

    关键问题:初始选择的3个点——选择两两距离最远的3个点;随即划分样本成3堆,以3堆的平均重心作为起始点。

    自动编码器

    原始数据经过神经网络“编码”,再根据编码信息“解码”,还原原有信息;适应大量样本后,编码器本身能够表示关于问题的本质。

    应用:图片抗噪——原始图像添加噪声之后再进入编码器,试图生成没有噪声的图像(根据不清晰的图片改成原来清晰的图片);数据降维

    其他学习

    全监督学习:方法丰富、研究充分、性能好、成本高

    无监督学习:方法简单、数据样本多

    弱监督学习

    例子:远程监督信息

    半监督方法:方法简单,但远距离监督信息来源有限;往往不准确,容易引起错误

    例子:社交网络上,给用户贴标签

    解决思路:根据特征信息计算节点之间的相似度

    迁移学习——样本迁移:寻找任务A标注数据,直接能够用于任务B的数据,训练任务B;特征迁移;模型迁移:机器翻译。

    例子:图像风格的迁移学习

    强化学习

    强化学习认为,计算机单纯通过感知环境,与环境交互,并且从交互中获得评价反馈,就可以适应所处的环境。

    基本思想:从环境中采样,抽象算法,用算法制作模型,解决环境优化问题;环境提供数据,模型把运算结果返回给环境,这时环境才给奖励;闭环过程。

    奖励可以看作无监督信号。

    例子:小孩学习走路,主体:小孩;环境:地板;动作:迈步;奖惩:笑脸、摔跤。

    展望

    强化学习的过程,实际上就是智能体适应环境的过程。与真实的生命过程也有类似之处。

    目前,强化学习作为机器学习和人工智能的一个重要分支,受到越来越多的关注,许多学者也开始认为,强化学习代表人工智能未来发展的方向。

    相关文章

      网友评论

          本文标题:机器学习(课堂笔记)

          本文链接:https://www.haomeiwen.com/subject/gidavctx.html