赞
踩
from sklearn.feature_extraction import DictVectorizer def dictvec(): #字典数据抽取 #实例化 dict=DictVectorizer(sparse=False) #调用fit_transform,字典储存在列表中 data=dict.fit_transform([{'city': '北京','temperature': 100} , {'city': '上海','temperature':60}, {'city': '深圳','temperature': 30}]) print(dict.get_feature_names()) print(dict.inverse_transform(data)) print(data) if __name__=="__main__": dictvec()
from sklearn.feature_extraction import DictVectorizer
from sklearn.feature_extraction.text import CountVectorizer
def countvec():
#对文本进行特征值化
CV=CountVectorizer()
data=CV.fit_transform(["life is short,i like python","life is too long,i dislike python"])
print(CV.get_feature_names()) #统计所有文章当中所有的词,重复的只看做一次 词的列表
print(data.toarray()) #对每篇文章,在词的列表里面进行统计每个词出现的次数
if __name__=="__main__":
countvec()
from sklearn.feature_extraction import DictVectorizer from sklearn.feature_extraction.text import CountVectorizer import jieba def cutword(): con1 = jieba.cut("今天很残酷,明天更残酷,后天很美好,但绝对大部分是死在明天晚上,所以每个人不要放弃今天。") con2 = jieba.cut("我们看到的从很远星系来的光是在几百万年之前发出的,这样当我们看到宇宙时,我们是在看它的过去。") con3 = jieba.cut("如果只用一种方式了解某样事物,你就不会真正了解它。了解事物真正含义的秘密取决于如何将其与我们所了解的事物相联系。") #转换成列表 content1=list(con1) content2=list(con2) content3=list(con3) #把列表换换成字符串 c1=" ".join(content1) c2 = " ".join(content2) c3 = " ".join(content3) return c1, c2, c3 def hanzi(): #中文特征值化 c1,c2,c3=cutword() print(c1,c2,c3) CV = CountVectorizer() data = CV.fit_transform([c1,c2,c3]) # 需要对中文进行分词处理 print(CV.get_feature_names()) # 统计所有文章当中所有的词,重复的只看做一次 词的列表 print(data.toarray()) # 对每篇文章,在词的列表里面进行统计每个词出现的次数 if __name__=="__main__": hanzi()
显示为矩阵结果:data.toarray()
from sklearn.feature_extraction import DictVectorizer from sklearn.feature_extraction.text import CountVectorizer,TfidfVectorizer import jieba def tfidfvec(): #中文特征值化 c1,c2,c3=cutword() print(c1,c2,c3) tf = TfidfVectorizer() data = tf.fit_transform([c1,c2,c3]) # 需要对中文进行分词处理 print(tf.get_feature_names()) # 统计所有文章当中所有的词,重复的只看做一次 词的列表 print(data.toarray()) # 对每篇文章,在词的列表里面进行统计每个词出现的次数 if __name__=="__main__": tfidfvec()
from sklearn.preprocessing import MinMaxScaler
def mm():
#归一化处理
mm=MinMaxScaler(feature_range=(2,3))
data=mm.fit_transform([[90,2,10,40],[60,4,15,45],[75,3,13,46]])
print(data)
return None
if __name__=="__main__":
mm()
from sklearn.preprocessing import MinMaxScaler,StandardScaler
def stand():
#标准化缩放
std=StandardScaler()
data=std.fit_transform([[1.,-1.,3.],[2.,4.,2.],[4.,6.,-1.]])
print(data)
if __name__=="__main__":
stand()
from sklearn.impute import SimpleImputer
import numpy as np
def im():
#缺失值
im=SimpleImputer(missing_values=np.nan, strategy=“mean”)
data=im.fit_transform([[1,2],[np.nan,3],[7,6]])
print(data)
if name==“main”:
im()
from sklearn.feature_selection import VarianceThreshold
def var():
#特征选择
var=VarianceThreshold(threshold=1.0) #取值根据实际的需求
data=var.fit_transform([[0,2,0,3],[0,1,4,3],[0,1,1,3]])
print(data)
if __name__=="__main__":
var()
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。