为了账号安全,请及时绑定邮箱和手机立即绑定

机器学习中为什么要做归一化normalization

标签:
机器学习

作者:Michael

原文链接:https://segmentfault.com/a/1190000015283224

我们处理feature的时候往往先要normalize encoding,使用python可以很容易做:

from sklearn import preprocessing
from scipy.stats import rankdata

x = [[1], [3], [34], [21], [10], [12]]
std_x = preprocessing.StandardScaler().fit_transform(x)
norm_x= preprocessing.MinMaxScaler().fit_transform(x)
norm_x2= preprocessing.LabelEncoder().fit_transform(x)print('std_x=\n', std_x)print('norm_x=\n', norm_x)print('norm_2=\n', norm_x2)print('oringial order =', rankdata(x))print('stand order    =', rankdata(std_x))print('normalize order=', rankdata(norm_x))

其中preprocessing.LabelEncoder().fit_transform(x)就是做normalize encoding,上面的程序输入如下:

std_x=
 [[-1.1124854 ]
 [-0.93448773]
 [ 1.82447605]
 [ 0.66749124]
 [-0.31149591]
 [-0.13349825]]
norm_x=
 [[0.        ]
 [0.06060606]
 [1.        ]
 [0.60606061]
 [0.27272727]
 [0.33333333]]
norm_2=
 [0 1 5 4 2 3]
oringial order = [1. 2. 6. 5. 3. 4.]
stand order    = [1. 2. 6. 5. 3. 4.]
normalize order= [1. 2. 6. 5. 3. 4.]

可以看到normailize之后的结果是 [0 1 5 4 2 3]。这样做的好处是什么呢?

下面图片转自知乎(https://www.zhihu.com/questio...

https://img1.sycdn.imooc.com//5b21dd2000014e8f05160629.jpg

https://img1.sycdn.imooc.com//5b21dd3e0001829a05150552.jpg

https://img1.sycdn.imooc.com//5b21dd690001c5ac05160626.jpg


点击查看更多内容
1人点赞

若觉得本文不错,就分享一下吧!

评论

作者其他优质文章

正在加载中
感谢您的支持,我会继续努力的~
扫码打赏,你说多少就多少
赞赏金额会直接到老师账户
支付方式
打开微信扫一扫,即可进行扫码打赏哦
今天注册有机会得

100积分直接送

付费专栏免费学

大额优惠券免费领

立即参与 放弃机会
意见反馈 帮助中心 APP下载
官方微信

举报

0/150
提交
取消