赞
踩
文本处理的基本方法
文本张量表示方法
文本语料的数据分析
文本特征处理
数据增强方法
重要说明
- 工信处女干事每月经过下属科室都要亲口交代24口交换机等技术性器件的安装工作
-
- ==>
-
- ['工信处', '女干事', '每月', '经过', '下属', '科室', '都', '要', '亲口', '交代', '24', '口', '交换机', '等', '技术性', '器件', '的', '安装', '工作']
- 精确模式
- 全模式
- 搜索引擎模式
pip install jieba
- 精确模式分词:
- 试图将句子最精确地切开,适合文本分析.
- >>> import jieba
- >>> content = "工信处女干事每月经过下属科室都要亲口交代24口交换机等技术性器件的安装工作"
- >>> jieba.cut(content, cut_all=False) # cut_all默认为False
- # 将返回一个生成器对象
- <generator object Tokenizer.cut at 0x7f065c19e318>
-
- # 若需直接返回列表内容, 使用jieba.lcut即可
- >>> jieba.lcut(content, cut_all=False)
- ['工信处', '女干事', '每月', '经过', '下属', '科室', '都', '要', '亲口', '交代', '24', '口', '交换机', '等', '技术性', '器件', '的', '安装', '工作']
- 全模式分词:
- 把句子中所有的可以成词的词语都扫描出来, 速度非常快,但是不能消除 歧义.
- >>> import jieba
- >>> content = "工信处女干事每月经过下属科室都要亲口交代24口交换机等技术性器件的安装工作"
- >>> jieba.cut(content, cut_all=True) # cut_all默认为False
- # 将返回一个生成器对象
- <generator object Tokenizer.cut at 0x7f065c19e318>
-
- # 若需直接返回列表内容, 使用jieba.lcut即可
- >>> jieba.lcut(content, cut_all=True)
- ['工信处', '处女', '女干事', '干事', '每月', '月经', '经过', '下属', '科室', '都', '要', '亲口', '口交', '交代', '24', '口交', '交换', '交换机', '换机', '等', '技术', '技术性', '性器', '器件', '的', '安装', '安装工', '装工', '工作']
- 搜索引擎模式分词:
- 在精确模式的基础上,对长词再次切分,提高召回率,适合用于搜索引擎分词.
- >>> import jieba
- >>> content = "工信处女干事每月经过下属科室都要亲口交代24口交换机等技术性器件的安装工作"
- >>> jieba.cut_for_search(content)
- # 将返回一个生成器对象
- <generator object Tokenizer.cut at 0x7f065c19e318>
-
- # 若需直接返回列表内容, 使用jieba.lcut_for_search即可
- >>> jieba.lcut_for_search(content)
- ['工信处', '干事', '女干事', '每月', '经过', '下属', '科室', '都', '要', '亲口', '交代', '24', '口', '交换', '换机', '交换机', '等', '技术', '技术性', '器件', '的', '安装', '工作']
-
- # 对'女干事', '交换机'等较长词汇都进行了再次分词.
- 中文繁体分词:
- 针对中国香港, 台湾地区的繁体文本进行分词.
- >>> import jieba
- >>> content = "煩惱即是菩提,我暫且不提"
- >>> jieba.lcut(content)
- ['煩惱', '即', '是', '菩提', ',', '我', '暫且', '不', '提']
- 使用用户自定义词典:
- 添加自定义词典后, jieba能够准确识别词典中出现的词汇,提升整体的识别准确率.
- 词典格式: 每一行分三部分:词语、词频(可省略)、词性(可省略),用空格隔开,顺序不可颠倒.
- 词典样式如下, 具体词性含义请参照附录: jieba词性对照表, 将该词典存为userdict.txt, 方便之后加载使用.
- 云计算 5 n
- 李小福 2 nr
- easy_install 3 eng
- 好用 300
- 韩玉赏鉴 3 nz
- 八一双鹿 3 nz
- >>> import jieba
- >>> jieba.lcut("八一双鹿更名为八一南昌篮球队!")
- # 没有使用用户自定义词典前的结果:
- >>> ['八', '一双', '鹿', '更名', '为', '八一', '南昌', '篮球队', '!']
-
-
- >>> jieba.load_userdict("./userdict.txt")
- # 使用了用户自定义词典后的结果:
- ['八一双鹿', '更名', '为', '八一', '南昌', '篮球队', '!']
- 鲁迅, 浙江绍兴人, 五四新文化运动的重要参与者, 代表作朝花夕拾.
-
- ==>
-
- 鲁迅(人名) / 浙江绍兴(地名)人 / 五四新文化运动(专有名词) / 重要参与者 / 代表作 / 朝花夕拾(专有名词)
- 我爱自然语言处理
-
- ==>
-
- 我/rr, 爱/v, 自然语言/n, 处理/vn
-
- rr: 人称代词
- v: 动词
- n: 名词
- vn: 动名词
- >>> import jieba.posseg as pseg
- >>> pseg.lcut("我爱北京天安门")
- [pair('我', 'r'), pair('爱', 'v'), pair('北京', 'ns'), pair('天安门', 'ns')]
-
- # 结果返回一个装有pair元组的列表, 每个pair元组中分别是词汇及其对应的词性, 具体词性含义请参照[附录: jieba词性对照表]()
- ["人生", "该", "如何", "起头"]
-
- ==>
-
- # 每个词对应矩阵中的一个向量
- [[1.32, 4,32, 0,32, 5.2],
- [3.1, 5.43, 0.34, 3.2],
- [3.21, 5.32, 2, 4.32],
- [2.54, 7.32, 5.12, 9.54]]
- ["改变", "要", "如何", "起手"]`
- ==>
-
- [[1, 0, 0, 0],
- [0, 1, 0, 0],
- [0, 0, 1, 0],
- [0, 0, 0, 1]]
- 进行onehot编码:
- # 导入用于对象保存与加载的joblib
- from sklearn.externals import joblib
- # 导入keras中的词汇映射器Tokenizer
- from keras.preprocessing.text import Tokenizer
- # 假定vocab为语料集所有不同词汇集合
- vocab = {"周杰伦", "陈奕迅", "王力宏", "李宗盛", "吴亦凡", "鹿晗"}
- # 实例化一个词汇映射器对象
- t = Tokenizer(num_words=None, char_level=False)
- # 使用映射器拟合现有文本数据
- t.fit_on_texts(vocab)
-
- for token in vocab:
- zero_list = [0]*len(vocab)
- # 使用映射器转化现有文本数据, 每个词汇对应从1开始的自然数
- # 返回样式如: [[2]], 取出其中的数字需要使用[0][0]
- token_index = t.texts_to_sequences([token])[0][0] - 1
- zero_list[token_index] = 1
- print(token, "的one-hot编码为:", zero_list)
-
- # 使用joblib工具保存映射器, 以便之后使用
- tokenizer_path = "./Tokenizer"
- joblib.dump(t, tokenizer_path)
- 输出效果:
- 鹿晗 的one-hot编码为: [1, 0, 0, 0, 0, 0]
- 王力宏 的one-hot编码为: [0, 1, 0, 0, 0, 0]
- 李宗盛 的one-hot编码为: [0, 0, 1, 0, 0, 0]
- 陈奕迅 的one-hot编码为: [0, 0, 0, 1, 0, 0]
- 周杰伦 的one-hot编码为: [0, 0, 0, 0, 1, 0]
- 吴亦凡 的one-hot编码为: [0, 0, 0, 0, 0, 1]
-
- # 同时在当前目录生成Tokenizer文件, 以便之后使用
- onehot编码器的使用:
- # 导入用于对象保存与加载的joblib
- # from sklearn.externals import joblib
- # 加载之前保存的Tokenizer, 实例化一个t对象
- t = joblib.load(tokenizer_path)
-
- # 编码token为"李宗盛"
- token = "李宗盛"
- # 使用t获得token_index
- token_index = t.texts_to_sequences([token])[0][0] - 1
- # 初始化一个zero_list
- zero_list = [0]*len(vocab)
- # 令zero_List的对应索引为1
- zero_list[token_index] = 1
- print(token, "的one-hot编码为:", zero_list)
- 输出效果:
李宗盛 的one-hot编码为: [1, 0, 0, 0, 0, 0]
- one-hot编码的优劣势:
- 优势:操作简单,容易理解.
- 劣势:完全割裂了词与词之间的联系,而且在大语料集下,每个向量的长度过大,占据大量内存.
- 说明:
- 正因为one-hot编码明显的劣势,这种编码方式被应用的地方越来越少,取而代之的是接下来我们要学习的稠密向量的表示方法word2vec和word embedding.
- 分析:
- 图中窗口大小为9, 使用前后4个词汇对目标词汇进行预测.
- 假设我们给定的训练语料只有一句话: Hope can set you free (愿你自由成长),窗口大小为3,因此模型的第一个训练样本来自Hope can set,因为是CBOW模式,所以将使用Hope和set作为输入,can作为输出,在模型训练时, Hope,can,set等词汇都使用它们的one-hot编码. 如图所示: 每个one-hot编码的单词与各自的变换矩阵(即参数矩阵3x5, 这里的3是指最后得到的词向量维度)相乘之后再相加, 得到上下文表示矩阵(3x1).
- 接着, 将上下文表示矩阵与变换矩阵(参数矩阵5x3, 所有的变换矩阵共享参数)相乘, 得到5x1的结果矩阵, 它将与我们真正的目标矩阵即can的one-hot编码矩阵(5x1)进行损失的计算, 然后更新网络参数完成一次模型迭代.
- 最后窗口按序向后移动,重新更新参数,直到所有语料被遍历完成,得到最终的变换矩阵(3x5),这个变换矩阵与每个词汇的one-hot编码(5x1)相乘,得到的3x1的矩阵就是该词汇的word2vec张量表示.
- 分析:
- 图中窗口大小为9, 使用目标词汇对前后四个词汇进行预测.
假设我们给定的训练语料只有一句话: Hope can set you free (愿你自由成长),窗口大小为3,因此模型的第一个训练样本来自Hope can set,因为是skipgram模式,所以将使用can作为输入 ,Hope和set作为输出,在模型训练时, Hope,can,set等词汇都使用它们的one-hot编码. 如图所示: 将can的one-hot编码与变换矩阵(即参数矩阵3x5, 这里的3是指最后得到的词向量维度)相乘, 得到目标词汇表示矩阵(3x1).
接着, 将目标词汇表示矩阵与多个变换矩阵(参数矩阵5x3)相乘, 得到多个5x1的结果矩阵, 它将与我们Hope和set对应的one-hot编码矩阵(5x1)进行损失的计算, 然后更新网络参数完成一次模 型迭代.
- 最后窗口按序向后移动,重新更新参数,直到所有语料被遍历完成,得到最终的变换矩阵即参数矩阵(3x5),这个变换矩阵与每个词汇的one-hot编码(5x1)相乘,得到的3x1的矩阵就是该词汇的word2vec张量表示.
使用fasttext工具实现word2vec的训练和使用
- # 在这里, 我们将研究英语维基百科的部分网页信息, 它的大小在300M左右
- # 这些语料已经被准备好, 我们可以通过Matt Mahoney的网站下载.
- # 首先创建一个存储数据的文件夹data
- $ mkdir data
- # 使用wget下载数据的zip压缩包, 它将存储在data目录中
- $ wget -c http://mattmahoney.net/dc/enwik9.zip -P data
- # 使用unzip解压, 如果你的服务器中还没有unzip命令, 请使用: yum install unzip -y
- # 解压后在data目录下会出现enwik9的文件夹
- $ unzip data/enwik9.zip -d data
- 查看原始数据:
- $ head -10 data/enwik9
-
- # 原始数据将输出很多包含XML/HTML格式的内容, 这些内容并不是我们需要的
- <mediawiki xmlns="http://www.mediawiki.org/xml/export-0.3/" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:schemaLocation="http://www.mediawiki.org/xml/export-0.3/ http://www.mediawiki.org/xml/export-0.3.xsd" version="0.3" xml:lang="en">
- <siteinfo>
- <sitename>Wikipedia</sitename>
- <base>http://en.wikipedia.org/wiki/Main_Page</base>
- <generator>MediaWiki 1.6alpha</generator>
- <case>first-letter</case>
- <namespaces>
- <namespace key="-2">Media</namespace>
- <namespace key="-1">Special</namespace>
- <namespace key="0" />
- 原始数据处理:
- # 使用wikifil.pl文件处理脚本来清除XML/HTML格式的内容
- # 注: wikifil.pl文件已为大家提供
- $ perl wikifil.pl data/enwik9 > data/fil9
- 查看预处理后的数据:
- # 查看前80个字符
- head -c 80 data/fil9
-
- # 输出结果为由空格分割的单词
- anarchism originated as a term of abuse first used against early working class
- # 代码运行在python解释器中
- # 导入fasttext
- >>> import fasttext
- # 使用fasttext的train_unsupervised(无监督训练方法)进行词向量的训练
- # 它的参数是数据集的持久化文件路径'data/fil9'
- >>> model = fasttext.train_unsupervised('data/fil9')
-
- # 有效训练词汇量为124M, 共218316个单词
- Read 124M words
- Number of words: 218316
- Number of labels: 0
- Progress: 100.0% words/sec/thread: 53996 lr: 0.000000 loss: 0.734999 ETA: 0h 0m
- 查看单词对应的词向量:
- # 通过get_word_vector方法来获得指定词汇的词向量
- >>> model.get_word_vector("the")
- array([-0.03087516, 0.09221972, 0.17660329, 0.17308897, 0.12863874,
- 0.13912526, -0.09851588, 0.00739991, 0.37038437, -0.00845221,
- ...
- -0.21184735, -0.05048715, -0.34571868, 0.23765688, 0.23726143],
- dtype=float32)
- # 在训练词向量过程中, 我们可以设定很多常用超参数来调节我们的模型效果, 如:
- # 无监督训练模式: 'skipgram' 或者 'cbow', 默认为'skipgram', 在实践中,skipgram模式在利用子词方面比cbow更好.
- # 词嵌入维度dim: 默认为100, 但随着语料库的增大, 词嵌入的维度往往也要更大.
- # 数据循环次数epoch: 默认为5, 但当你的数据集足够大, 可能不需要那么多次.
- # 学习率lr: 默认为0.05, 根据经验, 建议选择[0.01,1]范围内.
- # 使用的线程数thread: 默认为12个线程, 一般建议和你的cpu核数相同.
-
- >>> model = fasttext.train_unsupervised('data/fil9', "cbow", dim=300, epoch=1, lr=0.1, thread=8)
- Read 124M words
- Number of words: 218316
- Number of labels: 0
- Progress: 100.0% words/sec/thread: 49523 lr: 0.000000 avg.loss: 1.777205 ETA: 0h 0m 0s
- # 检查单词向量质量的一种简单方法就是查看其邻近单词, 通过我们主观来判断这些邻近单词是否与目标单词相关来粗略评定模型效果好坏.
-
- # 查找"运动"的邻近单词, 我们可以发现"体育网", "运动汽车", "运动服"等.
- >>> model.get_nearest_neighbors('sports')
- [(0.8414610624313354, 'sportsnet'), (0.8134572505950928, 'sport'), (0.8100415468215942, 'sportscars'), (0.8021156787872314, 'sportsground'), (0.7889881134033203, 'sportswomen'), (0.7863013744354248, 'sportsplex'), (0.7786710262298584, 'sporty'), (0.7696356177330017, 'sportscar'), (0.7619683146476746, 'sportswear'), (0.7600985765457153, 'sportin')]
-
-
- # 查找"音乐"的邻近单词, 我们可以发现与音乐有关的词汇.
- >>> model.get_nearest_neighbors('music')
- [(0.8908010125160217, 'emusic'), (0.8464668393135071, 'musicmoz'), (0.8444250822067261, 'musics'), (0.8113634586334229, 'allmusic'), (0.8106718063354492, 'musices'), (0.8049437999725342, 'musicam'), (0.8004694581031799, 'musicom'), (0.7952923774719238, 'muchmusic'), (0.7852965593338013, 'musicweb'), (0.7767147421836853, 'musico')]
-
- # 查找"小狗"的邻近单词, 我们可以发现与小狗有关的词汇.
- >>> model.get_nearest_neighbors('dog')
- [(0.8456876873970032, 'catdog'), (0.7480780482292175, 'dogcow'), (0.7289096117019653, 'sleddog'), (0.7269964218139648, 'hotdog'), (0.7114801406860352, 'sheepdog'), (0.6947550773620605, 'dogo'), (0.6897546648979187, 'bodog'), (0.6621081829071045, 'maddog'), (0.6605004072189331, 'dogs'), (0.6398137211799622, 'dogpile')]
- # 使用save_model保存模型
- >>> model.save_model("fil9.bin")
- # 使用fasttext.load_model加载模型
- >>> model = fasttext.load_model("fil9.bin")
- >>> model.get_word_vector("the")
- array([-0.03087516, 0.09221972, 0.17660329, 0.17308897, 0.12863874,
- 0.13912526, -0.09851588, 0.00739991, 0.37038437, -0.00845221,
- ...
- -0.21184735, -0.05048715, -0.34571868, 0.23765688, 0.23726143],
- dtype=float32)
- 通过使用tensorboard可视化嵌入的词向量.
- # 导入torch和tensorboard的摘要写入方法
- import torch
- import json
- import fileinput
- from torch.utils.tensorboard import SummaryWriter
- # 实例化一个摘要写入对象
- writer = SummaryWriter()
-
- # 随机初始化一个100x50的矩阵, 认为它是我们已经得到的词嵌入矩阵
- # 代表100个词汇, 每个词汇被表示成50维的向量
- embedded = torch.randn(100, 50)
-
- # 导入事先准备好的100个中文词汇文件, 形成meta列表原始词汇
- meta = list(map(lambda x: x.strip(), fileinput.FileInput("./vocab100.csv")))
- writer.add_embedding(embedded, metadata=meta)
- writer.close()
- 在终端启动tensorboard服务:
- $ tensorboard --logdir runs --host 0.0.0.0
-
- # 通过http://0.0.0.0:6006访问浏览器可视化页面
- 浏览器展示并可以使用右侧近邻词汇功能检验效果:
学习了CBOW模式下的word2vec过程说明:
假设我们给定的训练语料只有一句话: Hope can set you free (愿你自由成长),窗口大小为3,因此模型的第一个训练样本来自Hope you set,因为是CBOW模式,所以将使用Hope和set作为输入,you作为输出,在模型训练时, Hope,set,you等词汇都使用它们的one-hot编码. 如图所示: 每个one-hot编码的单词与各自的变换矩阵(即参数矩阵3x5, 这里的3是指最后得到的词向量维度)相乘之后再相加, 得到上下文表示矩阵(3x1).
接着, 将上下文表示矩阵与变换矩阵(参数矩阵5x3, 所有的变换矩阵共享参数)相乘, 得到5x1的结果矩阵, 它将与我们真正的目标矩阵即you的one-hot编码矩阵(5x1)进行损失的计算, 然后更新网络参数完成一次模型迭代.
最后窗口按序向后移动,重新更新参数,直到所有语料被遍历完成,得到最终的变换矩阵(3x5),这个变换矩阵与每个词汇的one-hot编码(5x1)相乘,得到的3x1的矩阵就是该词汇的word2vec张量表示.
学习了skipgram模式下的word2vec过程说明:
假设我们给定的训练语料只有一句话: Hope can set you free (愿你自由成长),窗口大小为3,因此模型的第一个训练样本来自Hope you set,因为是skipgram模式,所以将使用you作为输入 ,hope和set作为输出,在模型训练时, Hope,set,you等词汇都使用它们的one-hot编码. 如图所示: 将you的one-hot编码与变换矩阵(即参数矩阵3x5, 这里的3是指最后得到的词向量维度)相乘, 得到目标词汇表示矩阵(3x1).
接着, 将目标词汇表示矩阵与多个变换矩阵(参数矩阵5x3)相乘, 得到多个5x1的结果矩阵, 它将与我们hope和set对应的one-hot编码矩阵(5x1)进行损失的计算, 然后更新网络参数完成一次模 型迭代.
最后窗口按序向后移动,重新更新参数,直到所有语料被遍历完成,得到最终的变换矩阵即参数矩阵(3x5),这个变换矩阵与每个词汇的one-hot编码(5x1)相乘,得到的3x1的矩阵就是该词汇的word2vec张量表示.
- sentence label
- 早餐不好,服务不到位,晚餐无西餐,早餐晚餐相同,房间条件不好,餐厅不分吸烟区.房间不分有无烟房. 0
- 去的时候 ,酒店大厅和餐厅在装修,感觉大厅有点挤.由于餐厅装修本来该享受的早饭,也没有享受(他们是8点开始每个房间送,但是我时间来不及了)不过前台服务员态度好! 1
- 有很长时间没有在西藏大厦住了,以前去北京在这里住的较多。这次住进来发现换了液晶电视,但网络不是很好,他们自己说是收费的原因造成的。其它还好。 1
- 非常好的地理位置,住的是豪华海景房,打开窗户就可以看见栈桥和海景。记得很早以前也住过,现在重新装修了。总的来说比较满意,以后还会住 1
- 交通很方便,房间小了一点,但是干净整洁,很有香港的特色,性价比较高,推荐一下哦 1
- 酒店的装修比较陈旧,房间的隔音,主要是卫生间的隔音非常差,只能算是一般的 0
- 酒店有点旧,房间比较小,但酒店的位子不错,就在海边,可以直接去游泳。8楼的海景打开窗户就是海。如果想住在热闹的地带,这里不是一个很好的选择,不过威海城市真的比较小,打车还是相当便宜的。晚上酒店门口出租车比较少。 1
- 位置很好,走路到文庙、清凉寺5分钟都用不了,周边公交车很多很方便,就是出租车不太爱去(老城区路窄爱堵车),因为是老宾馆所以设施要陈旧些, 1
- 酒店设备一般,套房里卧室的不能上网,要到客厅去。 0
- # 导入必备工具包
- import seaborn as sns
- import pandas as pd
- import matplotlib.pyplot as plt
- # 设置显示风格
- plt.style.use('fivethirtyeight')
-
- # 分别读取训练tsv和验证tsv
- train_data = pd.read_csv("./cn_data/train.tsv", sep="\t")
- valid_data = pd.read_csv("./cn_data/dev.tsv", sep="\t")
-
-
- # 获得训练数据标签数量分布
- sns.countplot("label", data=train_data)
- plt.title("train_data")
- plt.show()
-
-
- # 获取验证数据标签数量分布
- sns.countplot("label", data=valid_data)
- plt.title("valid_data")
- plt.show()
- # 在训练数据中添加新的句子长度列, 每个元素的值都是对应的句子列的长度
- train_data["sentence_length"] = list(map(lambda x: len(x), train_data["sentence"]))
-
- # 绘制句子长度列的数量分布图
- sns.countplot("sentence_length", data=train_data)
- # 主要关注count长度分布的纵坐标, 不需要绘制横坐标, 横坐标范围通过dist图进行查看
- plt.xticks([])
- plt.show()
-
- # 绘制dist长度分布图
- sns.distplot(train_data["sentence_length"])
-
- # 主要关注dist长度分布横坐标, 不需要绘制纵坐标
- plt.yticks([])
- plt.show()
-
-
- # 在验证数据中添加新的句子长度列, 每个元素的值都是对应的句子列的长度
- valid_data["sentence_length"] = list(map(lambda x: len(x), valid_data["sentence"]))
-
- # 绘制句子长度列的数量分布图
- sns.countplot("sentence_length", data=valid_data)
-
- # 主要关注count长度分布的纵坐标, 不需要绘制横坐标, 横坐标范围通过dist图进行查看
- plt.xticks([])
- plt.show()
-
- # 绘制dist长度分布图
- sns.distplot(valid_data["sentence_length"])
-
- # 主要关注dist长度分布横坐标, 不需要绘制纵坐标
- plt.yticks([])
- plt.show()
- # 绘制训练集长度分布的散点图
- sns.stripplot(y='sentence_length',x='label',data=train_data)
- plt.show()
-
- # 绘制验证集长度分布的散点图
- sns.stripplot(y='sentence_length',x='label',data=valid_data)
- plt.show()
- # 导入jieba用于分词
- # 导入chain方法用于扁平化列表
- import jieba
- from itertools import chain
-
- # 进行训练集的句子进行分词, 并统计出不同词汇的总数
- train_vocab = set(chain(*map(lambda x: jieba.lcut(x), train_data["sentence"])))
- print("训练集共包含不同词汇总数为:", len(train_vocab))
-
- # 进行验证集的句子进行分词, 并统计出不同词汇的总数
- valid_vocab = set(chain(*map(lambda x: jieba.lcut(x), valid_data["sentence"])))
- print("训练集共包含不同词汇总数为:", len(valid_vocab))
- 输出效果:
- 训练集共包含不同词汇总数为: 12147
- 训练集共包含不同词汇总数为: 6857
- # 使用jieba中的词性标注功能
- import jieba.posseg as pseg
-
- def get_a_list(text):
- """用于获取形容词列表"""
- # 使用jieba的词性标注方法切分文本,获得具有词性属性flag和词汇属性word的对象,
- # 从而判断flag是否为形容词,来返回对应的词汇
- r = []
- for g in pseg.lcut(text):
- if g.flag == "a":
- r.append(g.word)
- return r
-
- # 导入绘制词云的工具包
- from wordcloud import WordCloud
-
- def get_word_cloud(keywords_list):
- # 实例化绘制词云的类, 其中参数font_path是字体路径, 为了能够显示中文,
- # max_words指词云图像最多显示多少个词, background_color为背景颜色
- wordcloud = WordCloud(font_path="./SimHei.ttf", max_words=100, background_color="white")
- # 将传入的列表转化成词云生成器需要的字符串形式
- keywords_string = " ".join(keywords_list)
- # 生成词云
- wordcloud.generate(keywords_string)
-
- # 绘制图像并显示
- plt.figure()
- plt.imshow(wordcloud, interpolation="bilinear")
- plt.axis("off")
- plt.show()
-
- # 获得训练集上正样本
- p_train_data = train_data[train_data["label"]==1]["sentence"]
-
- # 对正样本的每个句子的形容词
- train_p_a_vocab = chain(*map(lambda x: get_a_list(x), p_train_data))
- #print(train_p_n_vocab)
-
- # 获得训练集上负样本
- n_train_data = train_data[train_data["label"]==0]["sentence"]
-
- # 获取负样本的每个句子的形容词
- train_n_a_vocab = chain(*map(lambda x: get_a_list(x), n_train_data))
-
- # 调用绘制词云函数
- get_word_cloud(train_p_a_vocab)
- get_word_cloud(train_n_a_vocab)
- # 获得验证集上正样本
- p_valid_data = valid_data[valid_data["label"]==1]["sentence"]
-
- # 对正样本的每个句子的形容词
- valid_p_a_vocab = chain(*map(lambda x: get_a_list(x), p_valid_data))
- #print(train_p_n_vocab)
-
- # 获得验证集上负样本
- n_valid_data = valid_data[valid_data["label"]==0]["sentence"]
-
- # 获取负样本的每个句子的形容词
- valid_n_a_vocab = chain(*map(lambda x: get_a_list(x), n_valid_data))
-
- # 调用绘制词云函数
- get_word_cloud(valid_p_a_vocab)
- get_word_cloud(valid_n_a_vocab)
- 假设给定分词列表: ["是谁", "敲动", "我心"]
-
- 对应的数值映射列表为: [1, 34, 21]
-
- 我们可以认为数值映射列表中的每个数字是词汇特征.
-
- 除此之外, 我们还可以把"是谁"和"敲动"两个词共同出现且相邻也作为一种特征加入到序列列表中,
-
- 假设1000就代表"是谁"和"敲动"共同出现且相邻
-
- 此时数值映射列表就变成了包含2-gram特征的特征列表: [1, 34, 21, 1000]
-
- 这里的"是谁"和"敲动"共同出现且相邻就是bi-gram特征中的一个.
-
- "敲动"和"我心"也是共现且相邻的两个词汇, 因此它们也是bi-gram特征.
-
- 假设1001代表"敲动"和"我心"共同出现且相邻
-
- 那么, 最后原始的数值映射列表 [1, 34, 21] 添加了bi-gram特征之后就变成了 [1, 34, 21, 1000, 1001]
- # 一般n-gram中的n取2或者3, 这里取2为例
- ngram_range = 2
-
- def create_ngram_set(input_list):
- """
- description: 从数值列表中提取所有的n-gram特征
- :param input_list: 输入的数值列表, 可以看作是词汇映射后的列表,
- 里面每个数字的取值范围为[1, 25000]
- :return: n-gram特征组成的集合
- eg:
- >>> create_ngram_set([1, 4, 9, 4, 1, 4])
- {(4, 9), (4, 1), (1, 4), (9, 4)}
- """
- return set(zip(*[input_list[i:] for i in range(ngram_range)]))
- input_list = [1, 3, 2, 1, 5, 3]
- res = create_ngram_set(input_list)
- print(res)
- 输出效果:
- # 该输入列表的所有bi-gram特征
- {(3, 2), (1, 3), (2, 1), (1, 5), (5, 3)}
- from keras.preprocessing import sequence
-
- # cutlen根据数据分析中句子长度分布,覆盖90%左右语料的最短长度.
- # 这里假定cutlen为10
- cutlen = 10
-
- def padding(x_train):
- """
- description: 对输入文本张量进行长度规范
- :param x_train: 文本的张量表示, 形如: [[1, 32, 32, 61], [2, 54, 21, 7, 19]]
- :return: 进行截断补齐后的文本张量表示
- """
- # 使用sequence.pad_sequences即可完成
- return sequence.pad_sequences(x_train, cutlen)
- 调用:
- # 假定x_train里面有两条文本, 一条长度大于10, 一天小于10
- x_train = [[1, 23, 5, 32, 55, 63, 2, 21, 78, 32, 23, 1],
- [2, 32, 1, 23, 1]]
-
- res = padding(x_train)
- print(res)
- 输出效果:
- [[ 5 32 55 63 2 21 78 32 23 1]
- [ 0 0 0 0 0 2 32 1 23 1]]
- # pip install google_trans_new安装一下 谷歌接口发生了变化
- from google_trans_new import google_translator
-
- # 实例化翻译对象
- translator = google_translator()
- # 进行第一次批量翻译, 翻译目标是韩语
- text = ["这家价格很便宜", "这家价格很便宜"]
- ko_res = translator.translate(text, lang_src="zh-cn", lang_tgt="ko")
-
- # 打印结果
- print("中间翻译结果:")
- print(ko_res)
- #
- # 最后在翻译回中文, 完成回译全部流程
- cn_res = translator.translate(ko_res, lang_src='ko', lang_tgt='zh-cn')
-
- print("回译得到的增强数据:")
- print(cn_res)
- 输出效果:
- 中间翻译结果:
- ["이 가격은 매우 싼 ", "이 가격은 매우 싼"]
- 回译得到的增强数据:
- ["这个价格非常便宜","这个价格很便宜"]
- - a 形容词
- - ad 副形词
- - ag 形容词性语素
- - an 名形词
- - b 区别词
- - c 连词
- - d 副词
- - df
- - dg 副语素
- - e 叹词
- - f 方位词
- - g 语素
- - h 前接成分
- - i 成语
- - j 简称略称
- - k 后接成分
- - l 习用语
- - m 数词
- - mg
- - mq 数量词
- - n 名词
- - ng 名词性语素
- - nr 人名
- - nrfg
- - nrt
- - ns 地名
- - nt 机构团体名
- - nz 其他专名
- - o 拟声词
- - p 介词
- - q 量词
- - r 代词
- - rg 代词性语素
- - rr 人称代词
- - rz 指示代词
- - s 处所词
- - t 时间词
- - tg 时语素
- - u 助词
- - ud 结构助词 得
- - ug 时态助词
- - uj 结构助词 的
- - ul 时态助词 了
- - uv 结构助词 地
- - uz 时态助词 着
- - v 动词
- - vd 副动词
- - vg 动词性语素
- - vi 不及物动词
- - vn 名动词
- - vq
- - x 非语素词
- - y 语气词
- - z 状态词
- - zg
- 【Proper Noun——NR,专有名词】
-
- 【Temporal Noun——NT,时间名词】
-
- 【Localizer——LC,定位词】如“内”,“左右”
-
- 【Pronoun——PN,代词】
-
- 【Determiner——DT,限定词】如“这”,“全体”
-
- 【Cardinal Number——CD,量词】
-
- 【Ordinal Number——OD,次序词】如“第三十一”
-
- 【Measure word——M,单位词】如“杯”
-
- 【Verb:VA,VC,VE,VV,动词】
-
- 【Adverb:AD,副词】如“近”,“极大”
-
- 【Preposition:P,介词】如“随着”
-
- 【Subordinating conjunctions:CS,从属连词】
-
- 【Conjuctions:CC,连词】如“和”
-
- 【Particle:DEC,DEG,DEV,DER,AS,SP,ETC,MSP,小品词】如“的话”
-
- 【Interjections:IJ,感叹词】如“哈”
-
- 【onomatopoeia:ON,拟声词】如“哗啦啦”
-
- 【Other Noun-modifier:JJ】如“发稿/JJ 时间/NN”
-
- 【Punctuation:PU,标点符号】
-
- 【Foreign word:FW,外国词语】如“OK
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。