赞
踩
什么是特征提取呢?
将任意数据(如文本或图像)转换为可用于机器学习的数字特征
注:特征值化是为了计算机更好的去理解数据
sklearn.feature_extraction
作用:对字典数据进行特征值化
我们对以下数据进行特征提取
- [{'city': '北京','temperature':100},
- {'city': '上海','temperature':60},
- {'city': '深圳','temperature':30}]
- from sklearn.feature_extraction import DictVectorizer
-
- def dict_demo():
- """
- 对字典类型的数据进行特征抽取
- :return: None
- """
- data = [{'city': '北京','temperature':100}, {'city': '上海','temperature':60}, {'city': '深圳','temperature':30}]
- # 1、实例化一个转换器类
- transfer = DictVectorizer(sparse=False)
- # 2、调用fit_transform
- data = transfer.fit_transform(data)
- print("返回的结果:\n", data)
- # 打印特征名字
- print("特征名字:\n", transfer.get_feature_names())
-
- return None
注意观察没有加上sparse=False参数的结果
- 返回的结果:
- (0, 1) 1.0
- (0, 3) 100.0
- (1, 0) 1.0
- (1, 3) 60.0
- (2, 2) 1.0
- (2, 3) 30.0
- 特征名字:
- ['city=上海', 'city=北京', 'city=深圳', 'temperature']
这个结果并不是我们想要看到的,所以加上参数,得到想要的结果:
- 返回的结果:
- [[ 0. 1. 0. 100.]
- [ 1. 0. 0. 60.]
- [ 0. 0. 1. 30.]]
- 特征名字:
- ['city=上海', 'city=北京', 'city=深圳', 'temperature']
之前在学习pandas中的离散化的时候,也实现了类似的效果。
我们把这个处理数据的技巧叫做”one-hot“编码:
转化为:
对于特征当中存在类别信息的我们都会做one-hot编码处理
作用:对文本数据进行特征值化
sklearn.feature_extraction.text.CountVectorizer(stop_words=[])
sklearn.feature_extraction.text.TfidfVectorizer
我们对以下数据进行特征提取
- ["life is short,i like python",
- "life is too long,i dislike python"]
- from sklearn.feature_extraction.text import CountVectorizer
-
- def text_count_demo():
- """
- 对文本进行特征抽取,countvetorizer
- :return: None
- """
- data = ["life is short,i like like python", "life is too long,i dislike python"]
- # 1、实例化一个转换器类
- # transfer = CountVectorizer(sparse=False) # 注意,没有sparse这个参数
- transfer = CountVectorizer()
- # 2、调用fit_transform
- data = transfer.fit_transform(data)
- print("文本特征抽取的结果:\n", data.toarray())
- print("返回特征名字:\n", transfer.get_feature_names())
-
- return None
返回结果:
- 文本特征抽取的结果:
- [[0 1 1 2 0 1 1 0]
- [1 1 1 0 1 1 0 1]]
- 返回特征名字:
- ['dislike', 'is', 'life', 'like', 'long', 'python', 'short', 'too']
问题:如果我们将数据替换成中文?
"人生苦短,我喜欢Python","生活太长久,我不喜欢Python"
那么最终得到的结果是
为什么会得到这样的结果呢,仔细分析之后会发现英文默认是以空格分开的。其实就达到了一个分词的效果,所以我们要对中文进行分词处理
需要安装下jieba库
pip3 install jieba
对以下三句话进行特征值化
- 今天很残酷,明天更残酷,后天很美好,
- 但绝对大部分是死在明天晚上,所以每个人不要放弃今天。
-
- 我们看到的从很远星系来的光是在几百万年之前发出的,
- 这样当我们看到宇宙时,我们是在看它的过去。
-
- 如果只用一种方式了解某样事物,你就不会真正了解它。
- 了解事物真正含义的秘密取决于如何将其与我们所了解的事物相联系。
- from sklearn.feature_extraction.text import CountVectorizer
- import jieba
-
- def cut_word(text):
- """
- 对中文进行分词
- "我爱北京天安门"————>"我 爱 北京 天安门"
- :param text:
- :return: text
- """
- # 用结巴对中文字符串进行分词
- text = " ".join(list(jieba.cut(text)))
-
- return text
-
- def text_chinese_count_demo2():
- """
- 对中文进行特征抽取
- :return: None
- """
- data = ["一种还是一种今天很残酷,明天更残酷,后天很美好,但绝对大部分是死在明天晚上,所以每个人不要放弃今天。",
- "我们看到的从很远星系来的光是在几百万年之前发出的,这样当我们看到宇宙时,我们是在看它的过去。",
- "如果只用一种方式了解某样事物,你就不会真正了解它。了解事物真正含义的秘密取决于如何将其与我们所了解的事物相联系。"]
- # 将原始数据转换成分好词的形式
- text_list = []
- for sent in data:
- text_list.append(cut_word(sent))
- print(text_list)
-
- # 1、实例化一个转换器类
- # transfer = CountVectorizer(sparse=False)
- transfer = CountVectorizer()
- # 2、调用fit_transform
- data = transfer.fit_transform(text_list)
- print("文本特征抽取的结果:\n", data.toarray())
- print("返回特征名字:\n", transfer.get_feature_names())
-
- return None
返回结果:
- Building prefix dict from the default dictionary ...
- Dumping model to file cache /var/folders/mz/tzf2l3sx4rgg6qpglfb035_r0000gn/T/jieba.cache
- Loading model cost 1.032 seconds.
- ['一种 还是 一种 今天 很 残酷 , 明天 更 残酷 , 后天 很 美好 , 但 绝对 大部分 是 死 在 明天 晚上 , 所以 每个 人 不要 放弃 今天 。', '我们 看到 的 从 很 远 星系 来 的 光是在 几百万年 之前 发出 的 , 这样 当 我们 看到 宇宙 时 , 我们 是 在 看 它 的 过去 。', '如果 只用 一种 方式 了解 某样 事物 , 你 就 不会 真正 了解 它 。 了解 事物 真正 含义 的 秘密 取决于 如何 将 其 与 我们 所 了解 的 事物 相 联系 。']
- Prefix dict has been built succesfully.
- 文本特征抽取的结果:
- [[2 0 1 0 0 0 2 0 0 0 0 0 1 0 1 0 0 0 0 1 1 0 2 0 1 0 2 1 0 0 0 1 1 0 0 1 0]
- [0 0 0 1 0 0 0 1 1 1 0 0 0 0 0 0 0 1 3 0 0 0 0 1 0 0 0 0 2 0 0 0 0 0 1 0 1]
- [1 1 0 0 4 3 0 0 0 0 1 1 0 1 0 1 1 0 1 0 0 1 0 0 0 1 0 0 0 2 1 0 0 1 0 0 0]]
- 返回特征名字:
- ['一种', '不会', '不要', '之前', '了解', '事物', '今天', '光是在', '几百万年', '发出', '取决于', '只用', '后天', '含义', '大部分', '如何', '如果', '宇宙', '我们', '所以', '放弃', '方式', '明天', '星系', '晚上', '某样', '残酷', '每个', '看到', '真正', '秘密', '绝对', '美好', '联系', '过去', '还是', '这样']
但如果把这样的词语特征用于分类,会出现什么问题?
请看问题:
该如何处理某个词或短语在多篇文章中出现的次数高这种情况
3.5.1 公式
最终得出结果可以理解为重要程度。
- 举例:
- 假如一篇文章的总词语数是100个,而词语"非常"出现了5次,那么"非常"一词在该文件中的词频就是5/100=0.05。
- 而计算文件频率(IDF)的方法是以文件集的文件总数,除以出现"非常"一词的文件数。
- 所以,如果"非常"一词在1,0000份文件出现过,而文件总数是10,000,000份的话,
- 其逆向文件频率就是lg(10,000,000 / 1,0000)=3。
- 最后"非常"对于这篇文档的tf-idf的分数为0.05 * 3=0.15
3.5.2 案例
- from sklearn.feature_extraction.text import TfidfVectorizer
- import jieba
-
- def cut_word(text):
- """
- 对中文进行分词
- "我爱北京天安门"————>"我 爱 北京 天安门"
- :param text:
- :return: text
- """
- # 用结巴对中文字符串进行分词
- text = " ".join(list(jieba.cut(text)))
-
- return text
-
- def text_chinese_tfidf_demo():
- """
- 对中文进行特征抽取
- :return: None
- """
- data = ["一种还是一种今天很残酷,明天更残酷,后天很美好,但绝对大部分是死在明天晚上,所以每个人不要放弃今天。",
- "我们看到的从很远星系来的光是在几百万年之前发出的,这样当我们看到宇宙时,我们是在看它的过去。",
- "如果只用一种方式了解某样事物,你就不会真正了解它。了解事物真正含义的秘密取决于如何将其与我们所了解的事物相联系。"]
- # 将原始数据转换成分好词的形式
- text_list = []
- for sent in data:
- text_list.append(cut_word(sent))
- print(text_list)
-
- # 1、实例化一个转换器类
- # transfer = CountVectorizer(sparse=False)
- transfer = TfidfVectorizer(stop_words=['一种', '不会', '不要'])
- # 2、调用fit_transform
- data = transfer.fit_transform(text_list)
- print("文本特征抽取的结果:\n", data.toarray())
- print("返回特征名字:\n", transfer.get_feature_names())
-
- return None
返回结果:
- Building prefix dict from the default dictionary ...
- Loading model from cache /var/folders/mz/tzf2l3sx4rgg6qpglfb035_r0000gn/T/jieba.cache
- Loading model cost 0.856 seconds.
- Prefix dict has been built succesfully.
- ['一种 还是 一种 今天 很 残酷 , 明天 更 残酷 , 后天 很 美好 , 但 绝对 大部分 是 死 在 明天 晚上 , 所以 每个 人 不要 放弃 今天 。', '我们 看到 的 从 很 远 星系 来 的 光是在 几百万年 之前 发出 的 , 这样 当 我们 看到 宇宙 时 , 我们 是 在 看 它 的 过去 。', '如果 只用 一种 方式 了解 某样 事物 , 你 就 不会 真正 了解 它 。 了解 事物 真正 含义 的 秘密 取决于 如何 将 其 与 我们 所 了解 的 事物 相 联系 。']
- 文本特征抽取的结果:
- [[ 0. 0. 0. 0.43643578 0. 0. 0.
- 0. 0. 0.21821789 0. 0.21821789 0. 0.
- 0. 0. 0.21821789 0.21821789 0. 0.43643578
- 0. 0.21821789 0. 0.43643578 0.21821789 0. 0.
- 0. 0.21821789 0.21821789 0. 0. 0.21821789
- 0. ]
- [ 0.2410822 0. 0. 0. 0.2410822 0.2410822
- 0.2410822 0. 0. 0. 0. 0. 0.
- 0. 0.2410822 0.55004769 0. 0. 0. 0.
- 0.2410822 0. 0. 0. 0. 0.48216441
- 0. 0. 0. 0. 0. 0.2410822
- 0. 0.2410822 ]
- [ 0. 0.644003 0.48300225 0. 0. 0. 0.
- 0.16100075 0.16100075 0. 0.16100075 0. 0.16100075
- 0.16100075 0. 0.12244522 0. 0. 0.16100075
- 0. 0. 0. 0.16100075 0. 0. 0.
- 0.3220015 0.16100075 0. 0. 0.16100075 0. 0.
- 0. ]]
- 返回特征名字:
- ['之前', '了解', '事物', '今天', '光是在', '几百万年', '发出', '取决于', '只用', '后天', '含义', '大部分', '如何', '如果', '宇宙', '我们', '所以', '放弃', '方式', '明天', '星系', '晚上', '某样', '残酷', '每个', '看到', '真正', '秘密', '绝对', '美好', '联系', '过去', '还是', '这样']
分类机器学习算法进行文章分类中前期数据处理方式
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。