美文网首页
机器学习笔记(18):特征缩放

机器学习笔记(18):特征缩放

作者: 链原力 | 来源:发表于2020-03-17 12:30 被阅读0次

本文来自之前在Udacity上自学机器学习的系列笔记。这是第18篇,介绍了数据前处理的方法—特征缩放。

特征缩放(Feature Scaling)
特征缩放是对数据特征进行前处理的方法。

我们用一个直观的例子来解释特征缩放。假设已知Cameron和Sarah的合适尺寸衬衫,我们需要选择一件合适尺寸的衬衫给Chris。同时,我们知道Cameron的身高和体重分别为175磅和5.9英尺,Sarah的身高和体重分别为115磅和5.2英尺,Chris的身高和体重分别为140磅和6.1英尺。

从直观上来说,我们会认为Chris的衬衫尺寸应该参考Cameron。他比Cameron还高一点,比Sarah高更多。

但如果我们从数据特征来看,考虑身高和体重这两个特征的加和,并判断Chris的这个结果更加靠近Cameron还是Sarah来判断Chris的合适衬衫尺寸选择谁来作为参考。结果是,Chris的身高和体重之和是更加靠近Sarah的。也就是说,通过对数据特征进行判断的结果在这个例子中并不合理。这是因为这两个特征是不一样的,直接相加导致数值比较大的体重占了主导位置,以至于身高的因素被忽略。

如果我们将身高和体重两个特征缩放到[0,1]之间的某个数,这样就可以得到Chris更加靠近Cameron的结果,这和我们的直觉判断也是一样的。

image.png

公式
特征缩放的公式是:
x' = \frac{x-x_{min}}{x_{max}-x_{min}}

其中x_{min}x_{max}分别是特征x下的最小和最大值。

sklearn提供了特征缩放的库:
https://scikit-learn.org/stable/modules/generated/sklearn.preprocessing.MinMaxScaler.html#sklearn.preprocessing.MinMaxScaler

支持向量机和K-均值聚类会受到特征缩放前后数据的影响,因为它们都需要考虑不同维度下的特征点的距离,而缩放后的数据的距离发生了改变。决策树和线性回归则不会。

相关文章

  • 机器学习笔记(18):特征缩放

    本文来自之前在Udacity上自学机器学习的系列笔记。这是第18篇,介绍了数据前处理的方法—特征缩放。 特征缩放(...

  • 梯度下降算法中的优化途径

    特征缩放: 特征缩放:特征缩放是用来标准化数据特征的范围。 特征缩放还可以使机器学习算法工作的更好。比如在K近邻算...

  • 实现特征缩放/归一化和标准化

    什么是特征缩放 特征缩放是用来标准化数据特征的范围 机器学习为什么需要特征缩放 在处理多维特征问题的时候,需要保证...

  • 特征缩放

    1.Chris 的 T 恤尺寸(直觉) 在某些类型的机器学习算法中,特征缩放是特征预处理的一项重要步骤 特征缩放的...

  • 特征缩放-MinMaxScaler

    1. 简述 在某些类型的机器学习中,特征缩放是特征处理的重要步骤。在机器学习中 使用RBF的 SVM函数 和 K-...

  • 2018-12-06梯度下降运算中的实用技巧

    特征缩放(feature scaling) 如果你有一个机器学习问题,这个问题有多个特征,尽量确保这些特征都处在一...

  • 数据归一化与标准化

    一. 为什么需要特征缩放 对于大多数的机器学习算法和优化算法来说,将特征值缩放到相同区间可以使得获取性能更好的模型...

  • Feature Scaling-特征缩放

    特征缩放 机器学习项目中,我们需要应用于数据的最重要的转换之一是特征缩放。除了少数例外,当输入数字属性具有非常不同...

  • 数据归一化与标准化

    一. 为什么需要特征缩放 对于大多数的机器学习算法和优化算法来说,将特征值缩放到相同区间可以使得获取性能更好的模型...

  • 数据清洗和特征选择:特征放缩与One Hot编码

    特征放缩Feature Scaling 在运用一些机器学习算法的时候不可避免地要对数据进行特征缩放,比如:在随机梯...

网友评论

      本文标题:机器学习笔记(18):特征缩放

      本文链接:https://www.haomeiwen.com/subject/twcashtx.html