博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
机器学习: 统一特征取值范围
阅读量:3939 次
发布时间:2019-05-23

本文共 1005 字,大约阅读时间需要 3 分钟。

特征缩放(feature scaling)是预处理阶段的关键步骤,但常常被遗忘。虽然存在决策树和随机森林这种是少数不需要特征缩放的机器学习算法,但对于大部分机器学习算法和优化算法来说,如果特征都在同一范围内,会获得更好的结果。比如梯度下降法。

特征缩放的重要性可以通过一个简单的示例解释。假设我们有两个特征,一个特征的取值范围是[1,10],另一个特征的取值范围是[1,100000]。我们使用Adaline中的平方误差函数,很明显,权重更新时会主要根据第二维度特征,这就使得在权重更新过程中第一个特征的话语权很小。另一个例子是如果kNN算法用欧氏距离作为距离度量,第二维度特征也占据了主要的话语权。

有两种方法能使不同的特征有相同的取值范围:归一化(normalization)和标准化(standardization)。两种方法还是有必要区分一下的。

1. 归一化指的是将特征范围缩放到[0,1],是最小-最大缩放(min-max scaling)的特例。为了得到归一化结果,我们对每一个特征应用最小-最大缩放,计算公式如下:

在这里插入图片描述

其中, x n o r m x_{norm} xnorm x i x^i xi归一化后的结果, x m i n x_{min} xmin是对应的列特征最小值, x m a x x_{max} xmax则是最大值。

sklearn中实现了最小-最大缩放,调用MinMaxScaler类即可:

在这里插入图片描述

2. 标准化:

虽然归一化方法简单,但相对来说,标准化对于大部分机器学习算法更实用。原因是大部分线性模型比如逻辑斯蒂回归和线性SVM在初始化权重参数时,要么选择0要么选择一个接近0的随机数。

使用标准化,我们能将特征值缩放到以0为中心,标准差为1,换句话说,标准化后的特征形式服从正态分布,这样学习权重参数更容易。此外,标准化后的数据保持了异常值中的有用信息,使得算法对异常值不太敏感,这一点归一化就无法保证。

标准化的计算公式如下:

在这里插入图片描述

此时, u x u_x ux是训练集对应特征列的平均值, σ x \sigma_x σx是对应特征列的标准差。

下面一张表使用一个简单的例子,展示了标准化和归一化的区别:

在这里插入图片描述

sklearn中提供了StandardScalar类实现列标准化:

在这里插入图片描述
强调,StandardScaler只使用训练集fit一次,这样保证训练集和测试集使用相同的标准进行的特征缩放。

转载地址:http://enywi.baihongyu.com/

你可能感兴趣的文章
研发主管的烦恼:周一早晨延迟的项目会议
查看>>
研发主管的烦恼:难以执行的绩效考核
查看>>
精益Scrum(五)
查看>>
精益Scrum(六)
查看>>
精益Scrum(七)
查看>>
软件测试管理—如何写好软件测试计划书
查看>>
解读一名软件测试经理所需要具备的能力
查看>>
有效的软件测试度量
查看>>
软件评测和测试国家现行标准
查看>>
理解测试策略
查看>>
机器学习界大牛林达华推荐的书籍
查看>>
path变量备份
查看>>
Lesson2.2 & 2.3 Maya command reference & quick help
查看>>
lesson 2.4 - Converting MEL Commands to Python
查看>>
Lesson3.2 variables
查看>>
3.4.2 - Operators & 3.4.3 division and truncation
查看>>
3.7.1 - Strings
查看>>
3.7.4 - Indexing and Slicing Strings
查看>>
3.7.5 - Modifying Strings
查看>>
3.7.6 - String Methods
查看>>