归一化

作者: Tsukinousag | 来源:发表于2021-02-03 12:09 被阅读0次
  • 常见的归一化方法:

1、min-max归一化(Min-Max Normalization)

对各维特征值分别进行线性变换,使得各维特征值被映射到[0, 1]之间(区间缩放),转换函数如下:

其中max为某一维特征值的最大值,min为某一列特征值的最小值。这种方法有个缺陷,就是当有新样本加入时,max和min可能会变化,需要重新定义,然后需要重新计算各特征值。

2、z-score标准化

这种方法用各维的均值和标准差来标准化各维特征值,它的转换函数为:

经过处理后,各维特征值相当于从标准正态分布采样得到,即各维特征服从标准正态分布。

此外,标准化的本质就是表示原始值与均值之间差了多少个标准差,是一个相对值,所以有去除量纲的功效。


p代表的是样例为正例的概率,是一个与模型无关而只与数据集有关的量,而总的归一化代价是取决于模型的好坏的

首先如果不归一化会怎么样,我们把下面公式的分母去掉,并重新定义计算函数:

#计算 正概率代价(横轴)
def calculate_Pcost(p,c01,c02):
    Pcosts=[]
    for i in range(len(p)):
        Pcost=round(p[i]*c01,4)
        Pcosts.append(Pcost)
    return Pcosts
#计算 归一化总概率(纵轴)
def calculate_cost_norm(p,c01,c02,FNR,FPR):
    costs_norm=[]
    for i in range(len(p)):
        cost_norm=round((FNR*p[i]*c01+FPR*(1-p[i])*c02),4)
        costs_norm.append(cost_norm)
    return  costs_norm

  • 实验结果

右边的图在给定p下其纵坐标与横坐标受cost01与cost10的影响,当cost01,cost10改变时,不方便比较,于是需要归一化,都除以pcost01+(1-p)cost10,均匀缩放到[0,1]的范围内

相关文章

  • 数据归一化 Feature Scaling

    数据归一化 最值归一化 均值方差归一化

  • 数据归一化

    什么是数据归一化 ? 具体有哪些归一化 ? 为什么要归一化 ? 1. 什么是数据归一化 ? standardize...

  • Stata--标准化、归一化

    由来 标准化、归一化是我们经常遇到的需求,如下式子 标准化 归一化 整体标准化和归一化 分组标准化和归一化

  • [Stay Sharp]特征归一化

    特征归一化 零均值归一化(Z-score normalization) 零均值归一化会把特征值映射到均值为0、标准...

  • 六、数据特征预处理

    1 归一化 sklearn.preprocessing import MinMaxScaler(一)归一化处理:统...

  • 问卷数据的标准化

    1 Normalization Method(标准化 / 归一化) 1.1 归一化方法(Normalization...

  • 归一化、标准化和正则化及代码实现

    归一化、标准化和正则化都是对数据进行处理的,那么这三种有什么区别呢? 归一化(normalization) 归一化...

  • np.dot

    broadcasting 按照行归一化 softmax函数,常用在对多分类结果进行归一化。

  • PCA主成分分析

    PCA用于剔除线性依赖数据,但是计算之前,需要处理有异类数据和归一化变量单位。归一化方法有很多,比如01归一化,l...

  • 标准化和归一化小记

    首先看一下标准化和归一化的公式: 归一化 标准化 归一化和标准化的区别:归一化是将样本的特征值转换到同一量纲下把数...

网友评论

    本文标题:归一化

    本文链接:https://www.haomeiwen.com/subject/rvuptltx.html