美文网首页
2018-11-28 机器学习打卡

2018-11-28 机器学习打卡

作者: Rackar | 来源:发表于2018-11-29 00:18 被阅读0次

05课 机器如何学习

  • 有监督学习Supervised Learning:有标签label
  • 无监督学习Unsupervised Learning:无标签

06课 三要素

数据

向量空间模型VSM,x特征向量Feature vector, y标签

模型

可以看做函数,通过训练数据得到。

算法

有监督为主:
损失函数(Loss Function)L(y, y’)= L(y, f(x)):针对一个数据
代价函数(Cost Function)J(theta):来描述整体的损失
目标函数 argmin J(theta):最小化的代价函数
具体的优化算法有很多,比如:梯度下降法(Gradient Descent)、共轭梯度法(Conjugate Gradient)、牛顿法和拟牛顿法、模拟退火法(Simulated Annealing)

07 模型获取和改进

步骤

  • 数据准备:预处理、向量空间模型、拆分训练/验证/测试集(2-1-1,7-1-2)
  • 训练:输出模型
  • 测试:预测比对

改进

数据:量,标注,标准化,采样,特征
算法:调参
模型:DL模型(CNN,DNN,RNN,LSTM)要求数据量大,少用

08课 模型质量与评判指标

评判指标

  • 精准率(Precision)=TP/(TP+FP)
  • 召回率(Recall)=TP/(TP+FN)
  • F1Score = 2*(Precision * Recall)/(Precision + Recall)
定义
图示

模型偏差

  • 欠拟合(Underfitting):训练集不佳
  • 过拟合 (Overfitting):训练好,验证/测试不好

09课 梯度下降(常用优化算法)

目标

最小化目标函数,凸函数Convex 保证有最小值。 f(tx + (1-t)y) <= tf(x) + (1-t)f(y)


方法

步长为超参数,步长太大太小都容易有问题,比较合理的是随趋势缩小步长,但是还可能碰到局部小值。

相关文章

  • 2018-11-28 机器学习打卡

    05课 机器如何学习 有监督学习Supervised Learning:有标签label 无监督学习Unsuper...

  • 11-28作业打卡:解读神秘报告1

    @所有人 2018-11-28 9/21[太阳][太阳][太阳] 昨天学习,今天演练~ 今天的你准备好打卡了么? ...

  • 2018-11-28

    2018-11-28 姓名:张正强 公司:江阴嘉鸿橡塑科技有限公司 【日精进打卡第️️42天】 【知~学习】 《六...

  • 2018-11-29

    2018-11-28 姓名:王相松 公司:扬州滋奇餐饮有限公司 【日精进打卡第16天】 【知~学习】 《六项精进》...

  • 报告解读练习 11/28

    2018-11-28 9/21 学习打卡 解读如下: 这份报告很好,从报告上看,反映出做测评的人,DISC中D特...

  • 补2018.11.28打卡-解读报告

    2018-11-28 9/21 昨天学习,今天演练~ 今天的你准备好打卡了么? 邀请你今天: 【1】神秘报告即将发...

  • 2018-11-28

    2018-11-28 A韵之声解晓 韵之声艺术培训学校 【日精进打卡第7天】 【知~学习】 *坚持读大学3遍,六项...

  • 2018-11-28

    2018-11-28 刘青林日精进打卡第7天】 【知~学习】 《六项精进》1遍共34遍 《大学》3遍共41遍 《活...

  • 机器学习打卡(一)

    今天是2020-02-14,最近病毒情况比较严重,开学推迟了,呆在家里一个月了。 报名参加了一个AI的在线公益学习...

  • 进步本记录190812-目标和手段不要本末倒置

    今天学会了什么 1、考霸训练营学习了day9,进行了打卡 优化了打卡模板:重心放在每天的进步记录。学习了学习机器 ...

网友评论

      本文标题:2018-11-28 机器学习打卡

      本文链接:https://www.haomeiwen.com/subject/euiwqqtx.html