赞
踩
机器学习模型需要的数据是数字型的,因为只有数字类型才能进行计算,而我么你平时处理到的一些数据是很多是符号的,或者是中文的。所以编码是必要的,对于各种各样的特征值去编码实际上就是一个量化的过程
图片来自(微信公众号:Python数据科学)[https://juejin.im/post/5b738ce26fb9a009896c4e4c]
电梯经过特征编码之后就变成了图所示的样子。
我们再一Mnist的label为例子,来说明一下:
我们先对数字7进行编码,
print(data_['train/labels'])
>>> [7 3 4 ... 5 6 8]
如果把[7 3 4 ... ]
变成one-hot将会是如下的形式:
[[0. 0. 0. 0. 0. 0. 0. 1. 0. 0.]
[0. 0. 0. 1. 0. 0. 0. 0. 0. 0.]
[0. 0. 0. 0. 1. 0. 0. 0. 0. 0.]
.......]
使用one-hot编码,将离散特征的取值扩展到了欧式空间,离散特征的某个取值就对应欧式空间的某个点,将离散特征通过one-hot编码映射到欧式空间,是因为,在回归,分类,聚类等机器学习算法中,特征之间距离的计算或相似度的计算是非常重要的,而我们常用的距离或相似度的计算都是在欧式空间的相似度计算,计算余弦相似性,基于的就是欧式空间.
测试代码如下:
import tensorflow as tf from tensorflow.examples.tutorials.mnist import input_data # no-one-hot mnist_ = input_data.read_data_sets('/home/ai/dataset/mnist', one_hot=False) data_ = {} data_['train/labels'] = mnist_.train.labels print(data_['train/labels'] >>> [7 3 4 ... 5 6 8] # one-hot mnist = input_data.read_data_sets('/home/ai/dataset/mnist', one_hot=True) data = {} data['train/images'] = mnist.train.images data['train/labels'] = mnist.train.labels print(data['train/labels'][2]) >>> [0. 0. 0. 0. 1. 0. 0. 0. 0. 0.]
这是我们给特征向量自定义数字标签。
比如;
类别 | label encoding |
---|---|
dog | 1 |
cat | 2 |
mouse | 3 |
这里的1,2,3
可以换成任意的数字,可以换成其他的比如4, 7, 8
one-hot
比如如果使用one-hot编码,则得到x_1 = (1, 0, 0), x_2 = (0, 1, 0), x_3 = (0, 0, 1),那么两个工作之间的距离就都是sqrt(2).即每两个工作之间的距离是一样的,显得更合理。
基于参数的模型或基于距离的模型,都是要进行特征的归一化。
将离散型特征进行one-hot编码的作用,是为了让距离计算更合理,但如果特征是离散的,并且不用one-hot编码就可以很合理的计算出距离,那么就没必要进行one-hot编码,比如,该离散特征共有1000个取值,我们分成两组,分别是400和600,两个小组之间的距离有合适的定义,组内的距离也有合适的定义,那就没必要用one-hot 编码。
label encoding
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。