赞
踩
序列数据有许多种形式,文本是最常见的例子,例如,一篇文章可以被简单地看作一串单词序列,甚至是一串字符序列,常见的文本预处理步骤包括:
import collections
import re
from d2l import torch as d2l
def read_time_machine(): #@save
"""将时间机器数据集加载到文本行的列表中"""
with open(d2l.download('time_machine'), 'r') as f:
lines = f.readlines()
return [re.sub('[^A-Za-z]+', ' ', line).strip().lower() for line in lines]
lines = read_time_machine()
print(f'# 文本总行数: {len(lines)}')
print(lines[0])
print(lines[10])
对于return中的re,re.sub(pattern, repl, string)
是 Python 的 re
模块中的一个函数,它用于替换字符串中所有匹配给定模式的子字符串。那么意思就是用空格替换不是26个字母的符号。
正则表达式[^A-Za-z]+:
[
和 ]
:
[]
定义了一个字符类,表示匹配方括号内的任意一个字符。^
:
[]
内部使用 ^
表示取反,即匹配不在方括号内定义的字符。[^A-Za-z]
表示匹配不是字母的任何字符。A-Za-z
:
A-Z
表示匹配任何一个大写字母。a-z
表示匹配任何一个小写字母。A-Za-z
表示匹配任何一个字母(无论是大写还是小写)。+
:
+
是一个量词,表示前面的字符或字符类可以出现一次或多次。[^A-Za-z]+
表示匹配一个或多个非字母字符的序列。'''词元化'''
def tokenize(lines, token='word'): #@save
"""将文本行拆分为单词或字符词元"""
if token == 'word': # 分割成单词
return [line.split() for line in lines]
elif token == 'char': # 分割成字符
return [list(line) for line in lines]
else:
print('错误:未知词元类型:' + token)
tokens = tokenize(lines)
for i in range(11):
print(tokens[i])
词元的类型是字符串,而模型需要的输入是数字,因此这种类型不方便模型使用。 现在,让我们构建一个字典,通常也叫做词表(vocabulary), 用来将字符串类型的词元映射到从(0)开始的数字索引中。 我们先将训练集中的所有文档合并在一起,对它们的唯一词元进行统计, 得到的统计结果称之为语料(corpus)。 然后根据每个唯一词元的出现频率,为其分配一个数字索引。 很少出现的词元通常被移除,这可以降低复杂性。 另外,语料库中不存在或已删除的任何词元都将映射到一个特定的未知词元“<unk>”。 我们可以选择增加一个列表,用于保存那些被保留的词元, 例如:填充词元(“<pad>”); 序列开始词元(“<bos>”); 序列结束词元(“<eos>”)
'''词表''' class Vocab: #@save """文本词表""" def __init__(self, tokens=None, min_freq=0, reserved_tokens=None): if tokens is None: tokens = [] if reserved_tokens is None: reserved_tokens = [] # 按出现频率排序 counter = count_corpus(tokens) # [0]是token ,[1]是出现次数 self._token_freqs = sorted(counter.items(), key=lambda x: x[1], reverse=True) # 未知词元的索引为0 self.idx_to_token = ['<unk>'] + reserved_tokens self.token_to_idx = {token: idx for idx, token in enumerate(self.idx_to_token)} for token, freq in self._token_freqs: if freq < min_freq: break if token not in self.token_to_idx: self.idx_to_token.append(token) self.token_to_idx[token] = len(self.idx_to_token) - 1 def __len__(self): return len(self.idx_to_token) def __getitem__(self, tokens): #重载[],即使用vocab[tokens]调用的是这个函数 if not isinstance(tokens, (list, tuple)): return self.token_to_idx.get(tokens, self.unk) return [self.__getitem__(token) for token in tokens] def to_tokens(self, indices): if not isinstance(indices, (list, tuple)): return self.idx_to_token[indices] return [self.idx_to_token[index] for index in indices] @property def unk(self): # 未知词元的索引为0 return 0 @property def token_freqs(self): return self._token_freqs def count_corpus(tokens): #@save """统计词元的频率""" # 这里的tokens是1D列表或2D列表 if len(tokens) == 0 or isinstance(tokens[0], list): # 将词元列表展平成一个列表 tokens = [token for line in tokens for token in line] # 数一下每个不一样的token出现的次数 词元:次数 return collections.Counter(tokens) vocab = Vocab(tokens) print(list(vocab.token_to_idx.items())[:10]) for i in [0, 10]: print('文本:', tokens[i]) print('索引:', vocab[tokens[i]])
'''整合'''
def load_corpus_time_machine(max_tokens=-1): #@save
"""返回时光机器数据集的词元索引列表和词表"""
lines = read_time_machine()
tokens = tokenize(lines, 'word')
vocab = Vocab(tokens)
# 因为时光机器数据集中的每个文本行不一定是一个句子或一个段落,
# 所以将所有文本行展平到一个列表中
corpus = [vocab[token] for line in tokens for token in line]
if max_tokens > 0:
corpus = corpus[:max_tokens]
return corpus, vocab
corpus, vocab = load_corpus_time_machine()
print(len(corpus), len(vocab))
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。