当前位置:   article > 正文

XLNet代码详解之预训练_chinese-xlnet-mid

chinese-xlnet-mid

XLNet源码地址https://github.com/zihangdai/xlnet

XLNET原理详解https://blog.csdn.net/weixin_37947156/article/details/93035607

XLNET中文预训练https://github.com/ymcui/Chinese-PreTrained-XLNet

原作地址http://fancyerii.github.io/2019/06/30/xlnet-codes/

目录

运行预处理数据

data_utils.py代码分析

第一部分:加载sentence-piece模型

第二部分:处理每一个文件的过程

第三部分:拼接前的预处理和拼接

第四部分:create_tfrecords函数

train_gpu.py代码

第一部分:train

第二部分:data_utils.get_input_fn

get_input_fn函数主要代码

get_dataset函数

_local_perm函数

perm_mask

第三部分:single_core_graph

get_model_fn

function_builder.get_loss

two_stream_loss

XLNetConfig

RunConfig

XLNetModel

 

模型简称语料Google下载讯飞云下载
XLNet-mid, Chinese中文维基+
通用数据[1]
TensorFlow 
PyTorch
TensorFlow(密码f5ux) 
PyTorch(密码vnnt)
XLNet-base, Chinese中文维基+
通用数据[1]
暂未开放暂未开放
  • XLNet代码结构

           

  • gpu_utils.py:ckpt模型加载、设置gpu、平均梯度和损失
  • prepro_utils.py:文本预处理、sentence-piece模型转换文本为WordPiece对应的ID
  • squard_utils.py:额外的统计数据,并绘制了额外PR曲线
  • model_utils.py:加载预训练模型、带L2权重衰减的Adam优化器
  • data_utils.py:预处理数据
  • classifier_utils.py:定义样本特征数据、序列对截断到最大长度、将单个“InputExample”转换为单个“InputFeatures”
  • modeling.py:transformer-xl、tow stream attention实现
  • xlnet.py:更高层的XLNetModel类,封装modeling的transformer
  • function_builder.py:各种用于pretrain和finetune的loss function
  • train_xxx.py:XLNet预训练
  • run_xxx.py:XLNet精调和评估

总体的依赖顺序就是:

  • Pretrain: train_xxx.py -> function_builder.py -> modeling.py -> xxx_utils.py
  • Finetune: run_xxx.py -> function_builder.py -> modeling.py -> xxx_utils.py

运行预处理数据

XLNET提供脚本来预处理数据,运行它:

  1. python data_utils.py
  2. --bsz_per_host=8
  3. --num_core_per_host=1
  4. --seq_len=128
  5. --reuse_len=64
  6. --input_glob=pretrain.txt
  7. --save_dir=traindata
  8. --num_passes=20
  9. --bi_data=True
  10. --sp_path=spiece.model
  11. --mask_alpha=6
  12. --mask_beta=1
  13. --num_predict=21

解释这些参数表示的意义:

  • bsz_per_host: 每个host的batch大小,这里是8。因为它是多个TPU同时训练,所以可能有多个host,我们这里只有一个host。
  • num_core_per_host: 每个host的TPU的个数,我这里用CPU,只能是1。
  • seq_len: 序列长度,这里使用128
  • reuse_len:可作为内存重用的token数量,一般为seq_len的一半,这里是64
  • input_glob :输入的训练数据,可以用*这样的通配符
  • save_dir :输出目录
  • num_passes: 生成多少趟(因为随机排列,所以每次都不同)
  • bi_data :是否双向的batch,参考前面的理论部分
  • sp_path: sentencepiece的模型,模型下载后自带了一个
  • mask_alpha:一组有多少个token
  • mask_beta:每组中要屏蔽多少个token
  • num_predict : 预测多少个token

sp_path是sentencepiece的模型,如果是自己的数据,可以使用spm_train工具来训练自己的WordPiece模型。

具体参见:

 

1、sentencePiece 分词原理学习

2、自然语言处理之_SentencePiece分词

data_utils.py代码分析

我们首先来看怎么生成训练数据的。它的main函数会调用create_data()函数,这个函数会调用_create_data来创建Pretraining的数据。这个函数的核心代码为:

  1. def _create_data(idx, input_paths):
  2. ## 第一部分:加载sentence-piece模型
  3. sp = spm.SentencePieceProcessor()
  4. sp.Load(FLAGS.sp_path)
  5. input_shards = []
  6. total_line_cnt = 0
  7. ## 第二部分:处理每一个文件的过程
  8. for input_path in input_paths:
  9. input_data, sent_ids = [], []
  10. sent_id, line_cnt = True, 0
  11. tf.logging.info("Processing %s", input_path)
  12. for line in tf.gfile.Open(input_path):
  13. if line_cnt % 100000 == 0:
  14. tf.logging.info("Loading line %d", line_cnt)
  15. line_cnt += 1
  16. if not line.strip():
  17. if FLAGS.use_eod:
  18. sent_id = not sent_id
  19. cur_sent = [EOD_ID]
  20. else:
  21. continue
  22. else:
  23. if FLAGS.from_raw_text:
  24. cur_sent = preprocess_text(line.strip(), lower=FLAGS.uncased)
  25. cur_sent = encode_ids(sp, cur_sent)
  26. else:
  27. cur_sent = list(map(int, line.strip().split()))
  28. input_data.extend(cur_sent)
  29. sent_ids.extend([sent_id] * len(cur_sent))
  30. sent_id = not sent_id
  31. tf.logging.info("Finish with line %d", line_cnt)
  32. if line_cnt == 0:
  33. continue
  34. input_data = np.array(input_data, dtype=np.int64)
  35. sent_ids = np.array(sent_ids, dtype=np.bool)
  36. total_line_cnt += line_cnt
  37. input_shards.append((input_data, sent_ids))
  38. tf.logging.info("[Task %d] Total number line: %d", idx, total_line_cnt)
  39. tfrecord_dir = os.path.join(FLAGS.save_dir, "tfrecords")
  40. filenames, num_batch = [], 0
  41. # 随机打乱输入碎片(使用固定但不同的随机种子)
  42. np.random.seed(100 * FLAGS.task + FLAGS.pass_id)
  43. perm_indices = np.random.permutation(len(input_shards))
  44. tf.logging.info("Using perm indices %s for pass %d",
  45. perm_indices.tolist(), FLAGS.pass_id)
  46. input_data_list, sent_ids_list = [], []
  47. prev_sent_id = None
  48. ## 第三部分:拼接前的预处理和拼接
  49. # 把不同文件的数据拼成一个大的向量前的预处理
  50. # 主要是处理sent_ids
  51. for perm_idx in perm_indices:
  52. input_data, sent_ids = input_shards[perm_idx]
  53. # make sure the `send_ids[0] == not prev_sent_id`
  54. if prev_sent_id is not None and sent_ids[0] == prev_sent_id:
  55. sent_ids = np.logical_not(sent_ids)
  56. # append to temporary list
  57. input_data_list.append(input_data)
  58. sent_ids_list.append(sent_ids)
  59. # update `prev_sent_id`
  60. prev_sent_id = sent_ids[-1]
  61. # 最终得到一个大的向量
  62. input_data = np.concatenate(input_data_list)
  63. sent_ids = np.concatenate(sent_ids_list)
  64. ## 第四部分:调用create_tfrecords函数
  65. file_name, cur_num_batch = create_tfrecords(
  66. save_dir=tfrecord_dir,
  67. basename="{}-{}-{}".format(FLAGS.split, idx, FLAGS.pass_id),
  68. data=[input_data, sent_ids],
  69. bsz_per_host=FLAGS.bsz_per_host,
  70. seq_len=FLAGS.seq_len,
  71. bi_data=FLAGS.bi_data,
  72. sp=sp,
  73. )
  74. filenames.append(file_name)
  75. num_batch += cur_num_batch
  76. record_info = {
  77. "filenames": filenames,
  78. "num_batch": num_batch
  79. }
  80. return record_info

分解为如下几个部分(见代码注释):

  • 第一部分:加载sentence-piece模型
  • 第二部分:处理每一个文件的过程

  • 第三部分:拼接前的预处理和拼接

  • 第四部分:调用create_tfrecords函数

第一部分:加载sentence-piece模型

前两行代码加载sentencepiece 。

第二部分:处理每一个文件的过程

这个过程读取每一个文件的每一行,然后使用sp切分成WordPiece,然后变成id,放到数组input_data里。另外还有一个sent_ids,用来表示句子。对于每一个文件(我们这里只有一个),最终是为了得到”input_data, sent_ids = [], []”两个list。

input_data里是放到这个文件的每一个WordPiece对应的ID,而sent_ids用于判断句子的边界。见下面的例子

  1. input_data=[19 5372 19317 6014 111 17634 2611 19 1084 111 420 152
  2. 25 6096 26 8888]
  3. sent_ids=[ True True True True True True True False False False False False
  4. False False False False]

因为第一个句子是”我的空调漏水怎么办”,使用sp切分后变成”['▁', '我的', '空调', '漏', '水', '怎么', '办']”,最后变成ID得到[19, 5372, 19317, 6014, 111, 17634, 2611]。而sent_ids是[ True  True  True  True  True  True  True]。

因此input_data是每一个WordPiece对应的ID的数组,而sent_ids可以判断哪些ID是属于一个句子的,也就是sent_ids通过交替的True和False来告诉我们句子的边界,比如前面的sent_ids的前7个为True,因此我们可以知道前7个WordPiece属于第一个句子,而后面的9个连续False告诉我们第二个句子有9个WordPiece。那么如果第三个句子有6个WordPiece,则我们可以猜测后面应该出现连续6个True。

WordPiece的一种主要的实现方式叫做BPE(Byte-Pair Encoding)双字节编码。BPE的过程可以理解为把一个单词再拆分,使得我们的此表会变得精简,并且寓意更加清晰。比如"loved","loving","loves"这三个单词。其实本身的语义都是“爱”的意思,但是如果我们以单词为单位,那它们就算不一样的词,在英语中不同后缀的词非常的多,就会使得词表变的很大,训练速度变慢,训练的效果也不是太好。BPE算法通过训练,能够把上面的3个单词拆分成"lov","ed","ing","es"几部分,这样可以把词的本身的意思和时态分开,有效的减少了词表的数量。

WordPiece或者BPE这么好,我们是不是哪里都能这么用呢?其实在我们的中文中不是很适用。首先我们的中文不像英文或者其他欧洲的语言一样通过空格分开,我们是连续的。其次我们的中文一个字就是一个最小的单元,无法在拆分的更小了。在中文中一般的处理方式是两中,分词和分字。理论上分词要比分字好,因为分词更加细致,语义分的更加开。分字简单,效率高,词表也很小,常用字就3000左右。

如果一个WordPiece以”▁”开始,则表明它是一个词的开始,而不以”▁”开始的表明它是接着前面的。

此外上面的代码还有处理空行,用于表示一个新的Document的开始(取决于选项FLAGS.use_eod),则会加一个特殊的Token EOD_ID。而段落的结束是使用表示,下面是一些特殊的符号及其ID:

  1. special_symbols = {
  2. "<unk>" : 0,
  3. "<s>" : 1,
  4. "</s>" : 2,
  5. "<cls>" : 3,
  6. "<sep>" : 4,
  7. "<pad>" : 5,
  8. "<mask>" : 6,
  9. "<eod>" : 7,
  10. "<eop>" : 8,
  11. }

第三部分:拼接前的预处理和拼接

通过前面的代码,我们可以把每一个文件都变成一个(input_data, sent_ids)pair,放到input_shards这个list里。但是我们还需要把不同文件的(input_data, sent_ids)拼接成更大的一个(input_data, sent_ids)。input_data可以直接拼接,但是sent_ids不行,为什么呢?我们假设第一个文件有3个句子,因此它的sent_ids类似[True,True,False,False,True,True],而第二个文件是两个句子,[True,False],那么直接拼起来就变成[True,True,False,False,True,True,True,False],拼接后本来应该是5个句子,但是现在变成了4个!

因为第一个文件是True结尾,但是第二个是True开始,因此我们需要把第二个文件的True和False反过来,这就是预处理的代码,关键的代码都有注释:

  1. for perm_idx in perm_indices:
  2. input_data, sent_ids = input_shards[perm_idx]
  3. # 如果上一个文件的最后的sent_id和这个文件的开始的sent_id相同
  4. # 那么就得把当前这个文件的sent_id反过来
  5. if prev_sent_id is not None and sent_ids[0] == prev_sent_id:
  6. sent_ids = np.logical_not(sent_ids)
  7. # append到临时的list
  8. input_data_list.append(input_data)
  9. sent_ids_list.append(sent_ids)
  10. # 更新 `prev_sent_id`
  11. prev_sent_id = sent_ids[-1]

最后拼接成两个大的向量:

  1. input_data = np.concatenate(input_data_list)
  2. sent_ids = np.concatenate(sent_ids_list)

第四部分:create_tfrecords函数

  1. def create_tfrecords(save_dir, basename, data, bsz_per_host, seq_len,
  2. bi_data, sp):
  3. data, sent_ids = data[0], data[1]
  4. num_core = FLAGS.num_core_per_host
  5. bsz_per_core = bsz_per_host // num_core
  6. if bi_data:
  7. assert bsz_per_host % (2 * FLAGS.num_core_per_host) == 0
  8. fwd_data, fwd_sent_ids = batchify(data, bsz_per_host // 2, sent_ids)
  9. fwd_data = fwd_data.reshape(num_core, 1, bsz_per_core // 2, -1)
  10. fwd_sent_ids = fwd_sent_ids.reshape(num_core, 1, bsz_per_core // 2, -1)
  11. bwd_data = fwd_data[:, :, :, ::-1]
  12. bwd_sent_ids = fwd_sent_ids[:, :, :, ::-1]
  13. data = np.concatenate(
  14. [fwd_data, bwd_data], 1).reshape(bsz_per_host, -1)
  15. sent_ids = np.concatenate(
  16. [fwd_sent_ids, bwd_sent_ids], 1).reshape(bsz_per_host, -1)
  17. else:
  18. data, sent_ids = batchify(data, bsz_per_host, sent_ids)
  19. tf.logging.info("Raw data shape %s.", data.shape)
  20. file_name = format_filename(
  21. prefix=basename,
  22. bsz_per_host=bsz_per_host,
  23. seq_len=seq_len,
  24. bi_data=bi_data,
  25. suffix="tfrecords",
  26. mask_alpha=FLAGS.mask_alpha,
  27. mask_beta=FLAGS.mask_beta,
  28. reuse_len=FLAGS.reuse_len,
  29. uncased=FLAGS.uncased,
  30. fixed_num_predict=FLAGS.num_predict
  31. )
  32. save_path = os.path.join(save_dir, file_name)
  33. record_writer = tf.python_io.TFRecordWriter(save_path)
  34. tf.logging.info("Start writing %s.", save_path)
  35. num_batch = 0
  36. reuse_len = FLAGS.reuse_len
  37. # [sep] x 2 + [cls]
  38. assert reuse_len < seq_len - 3
  39. data_len = data.shape[1]
  40. sep_array = np.array([SEP_ID], dtype=np.int64)
  41. cls_array = np.array([CLS_ID], dtype=np.int64)
  42. i = 0
  43. while i + seq_len <= data_len:
  44. if num_batch % 500 == 0:
  45. tf.logging.info("Processing batch %d", num_batch)
  46. all_ok = True
  47. features = []
  48. for idx in range(bsz_per_host):
  49. inp = data[idx, i: i + reuse_len]
  50. tgt = data[idx, i + 1: i + reuse_len + 1]
  51. results = _split_a_and_b(
  52. data[idx],
  53. sent_ids[idx],
  54. begin_idx=i + reuse_len,
  55. tot_len=seq_len - reuse_len - 3,
  56. extend_target=True)
  57. if results is None:
  58. tf.logging.info("Break out with seq idx %d", i)
  59. all_ok = False
  60. break
  61. # unpack the results
  62. (a_data, b_data, label, _, a_target, b_target) = tuple(results)
  63. # sample ngram spans to predict
  64. reverse = bi_data and (idx // (bsz_per_core // 2)) % 2 == 1
  65. if FLAGS.num_predict is None:
  66. num_predict_0 = num_predict_1 = None
  67. else:
  68. num_predict_1 = FLAGS.num_predict // 2
  69. num_predict_0 = FLAGS.num_predict - num_predict_1
  70. mask_0 = _sample_mask(sp, inp, reverse=reverse,
  71. goal_num_predict=num_predict_0)
  72. mask_1 = _sample_mask(sp, np.concatenate([a_data, sep_array, b_data,
  73. sep_array, cls_array]),
  74. reverse=reverse, goal_num_predict=num_predict_1)
  75. # concatenate data
  76. cat_data = np.concatenate([inp, a_data, sep_array, b_data,
  77. sep_array, cls_array])
  78. seg_id = ([0] * (reuse_len + a_data.shape[0]) + [0] +
  79. [1] * b_data.shape[0] + [1] + [2])
  80. assert cat_data.shape[0] == seq_len
  81. assert mask_0.shape[0] == seq_len // 2
  82. assert mask_1.shape[0] == seq_len // 2
  83. # the last two CLS's are not used, just for padding purposes
  84. tgt = np.concatenate([tgt, a_target, b_target, cls_array, cls_array])
  85. assert tgt.shape[0] == seq_len
  86. is_masked = np.concatenate([mask_0, mask_1], 0)
  87. if FLAGS.num_predict is not None:
  88. assert np.sum(is_masked) == FLAGS.num_predict
  89. feature = {
  90. "input": _int64_feature(cat_data),
  91. "is_masked": _int64_feature(is_masked),
  92. "target": _int64_feature(tgt),
  93. "seg_id": _int64_feature(seg_id),
  94. "label": _int64_feature([label]),
  95. }
  96. features.append(feature)
  97. if all_ok:
  98. assert len(features) == bsz_per_host
  99. for feature in features:
  100. example = tf.train.Example(features=tf.train.Features(feature=feature))
  101. record_writer.write(example.SerializeToString())
  102. num_batch += 1
  103. else:
  104. break
  105. i += reuse_len
  106. record_writer.close()
  107. tf.logging.info("Done writing %s. Num of batches: %d", save_path, num_batch)
  108. return save_path, num_batch

首先看前面部分的代码:

  1. data, sent_ids = data[0], data[1]
  2. num_core = FLAGS.num_core_per_host
  3. bsz_per_core = bsz_per_host // num_core
  4. if bi_data:
  5. assert bsz_per_host % (2 * FLAGS.num_core_per_host) == 0
  6. fwd_data, fwd_sent_ids = batchify(data, bsz_per_host // 2, sent_ids)
  7. fwd_data = fwd_data.reshape(num_core, 1, bsz_per_core // 2, -1)
  8. fwd_sent_ids = fwd_sent_ids.reshape(num_core, 1, bsz_per_core // 2, -1)
  9. bwd_data = fwd_data[:, :, :, ::-1]
  10. bwd_sent_ids = fwd_sent_ids[:, :, :, ::-1]
  11. data = np.concatenate(
  12. [fwd_data, bwd_data], 1).reshape(bsz_per_host, -1)
  13. sent_ids = np.concatenate(
  14. [fwd_sent_ids, bwd_sent_ids], 1).reshape(bsz_per_host, -1)
  15. else:
  16. data, sent_ids = batchify(data, bsz_per_host, sent_ids)
  17. tf.logging.info("Raw data shape %s.", data.shape)

在阅读这部分代码前我们先来了解它的作用。这个函数的前面部分的作用是整个语料库(一个很长的data和对应sent_ids)分成batch。比如假设data为:

1 2 3 4 .... 1001

并且batch为8,bi_data为True(两个方向),则上面的代码首先把1001个数据分成8/2=4个部分,不能整除的扔掉,因此变成:

  1. 1 2 ... 250
  2. 251 252 ... 500
  3. 501 502 ... 750
  4. 751 752 ... 1000

然后加上反过来的数据:

  1. 250 ... 2 1
  2. 500 ... 252 251
  3. 750 ... 502 501
  4. 1000 ... 752 751

最终变成:

  1. 1 2 ... 250
  2. 251 252 ... 500
  3. 501 502 ... 750
  4. 751 752 ... 1000
  5. 250 ... 2 1
  6. 500 ... 252 251
  7. 750 ... 502 501
  8. 1000 ... 752 751

它主要会用到batchify函数为:

  1. def batchify(data, bsz_per_host, sent_ids=None):
  2. num_step = len(data) // bsz_per_host
  3. data = data[:bsz_per_host * num_step]
  4. data = data.reshape(bsz_per_host, num_step)
  5. if sent_ids is not None:
  6. sent_ids = sent_ids[:bsz_per_host * num_step]
  7. sent_ids = sent_ids.reshape(bsz_per_host, num_step)
  8. if sent_ids is not None:
  9. return data, sent_ids
  10. return data

我们假设输入data是[3239,],并且bsz_per_host为4,则每个batch得到3239//4=3236/4=809个steps。3239去掉不能整除的最后3个,就是3236个ID。然后把它resahpe成(4, 809),sent_ids也是类似的操作。

生成Pretraining的数据:

A和B有两种关系,第一种它们是连续的上下文;第二种B是随机在data中选择的句子。

接下来是一个大的for循环:

  1. while i + seq_len <= data_len:
  2. ....
  3. i += reuse_len

上面的大while循环就是每次移动64(reuse_len),首先固定64个作为cache。然后从i+reuse_len位置开始不断寻找句子,直到这些句子的Token数大于61(128-64-3)。比如:

64  65-75 76-90 91-128

上面的例子找到3个句子,这三个句子的Token数大于61了。然后以50%的概率选择如下两种方案生成A和B:

  • A和B是连续的,因此从3个句子里随机的选择前面一部分作为A,剩下的作为B。比如有可能前两个句子是A,后一个是B。

  • A和B不连续,因此这3个句子随机选一部分作为A,比如前两个句子,接着随机的从整个data里寻找一部分作为B。

当然上面只是大致的思路,细节很多:比如这三个句子的长度超过61了,那么需要从A或者B里删除一部分;比如随机的从data里选择B,很可能B是句子的中间,那么需要向前后两个方向”扩充”B(当然同时要从A的尾部删除相应的个数的Token)。这里就不介绍了,读者知道它的作用后阅读代码就会比较容易了。

接下来就是对这128个Token进行”Mask”了,这是通过_sample_mask函数实现的。它首先对前64个memory进行Mask,然后对后面64个也进行Mask。_sample_mask的代码比较细节,我这里只介绍它的大致思路。

  • 首先随机选择n-gram的n,n的范围是[1,5],这里假设n为2
  • 然后计算上下文 “ctx_size = (n * FLAGS.mask_alpha) // FLAGS.mask_beta” 这里为2*6=12
  • 然后随机的ctx_size(12)切分成l_ctx和r_ctx,假设为5和7
  • 然后下标后移5(l_ctx),因为后移5之后可能不是一个词,因此持续后移找到n-gram开始的位置
  • 寻找n-gram开始的位置寻找n个词(n个词可能多于n个Token)
  • 然后从n-gram介绍的地方后移7(r_ctx)个位置,并且持续后移直到遇到词的开始(以”▁”开始的Token)

这样就找到了一个被Mask的n-gram以及它的左右(大致)l_ctx和r_ctx个Token。如果Mask的Token到达我们的预期(goal_num_predict)就退出,否则从结束的下标开始持续这个过程。最终我们需要得到的数据是feature,下面是一个feature的示例值:

  1. input: [ 52 27 18 89 3833 9 52 27 18 205 3833 21
  2. 77 18 239 20 18 11636 9 8 245 11636 9 7
  3. 245 2402 3091 193 9 7 52 27 18 89 3833 9
  4. 52 27 18 205 3833 21 77 18 239 20 18 11636
  5. 9 8 245 11636 9 7 245 2402 3091 193 9 7
  6. 52 27 18 89 3833 9 52 27 18 205 3833 21
  7. 77 18 239 20 18 11636 9 8 245 11636 9 7
  8. 245 2402 3091 193 9 7 52 27 18 89 3833 9
  9. 52 27 18 205 3833 21 77 18 239 20 18 11636
  10. 9 8 245 11636 9 7 245 2402 3091 193 9 4
  11. 52 27 18 89 3833 9 4 3]
  12. tgt: [ 27 18 89 3833 9 52 27 18 205 3833 21 77
  13. 18 239 20 18 11636 9 8 245 11636 9 7 245
  14. 2402 3091 193 9 7 52 27 18 89 3833 9 52
  15. 27 18 205 3833 21 77 18 239 20 18 11636 9
  16. 8 245 11636 9 7 245 2402 3091 193 9 7 52
  17. 27 18 89 3833 9 52 27 18 205 3833 21 77
  18. 18 239 20 18 11636 9 8 245 11636 9 7 245
  19. 2402 3091 193 9 7 52 27 18 89 3833 9 52
  20. 27 18 205 3833 21 77 18 239 20 18 11636 9
  21. 8 245 11636 9 7 245 2402 3091 193 9 7 52
  22. 27 18 89 3833 9 52 3 3]
  23. is_masked: [False False False False False True True False False False False False
  24. False False False False False True True True True True False True
  25. True False False False False False False False False False False False
  26. True False False False False False False False False False False False
  27. False False True False False False False False False False False False
  28. False False False False False False False False False False False False
  29. False False False False False True False False False False False False
  30. False False False False False False True True True True True False
  31. False False False False False False False False False False True True
  32. False False False False False False False False False False False False
  33. False True True False False False False False]
  34. seg_id: [0, 0, 0, 0, 0, ..., 0, 0, 0, 0, 1, 1, 1, 1, 1, 1, 1, 2]
  35. label: 1

这些变量的含义是:

  • input:长度为128的输入,前64个是mem,后面64个是A和B(加上2个SEP一个CLS)
  • tgt:长度128,除了最后两个是CLS,前面126是input对应的下一个目标值
  • label:1表示A和B是连续的句子
  • seg_id:表示输入input的segment,mem+A+SEP是0,B+SEP是1,最后一个CLS是2
  • is_masked:表示这128个里哪些位置是Mask的

最终这5个变量都会作为features放到一个tf.train.Example写到TFRecord文件里。

train_gpu.py代码

  1. python train_gpu.py
  2. --record_info_dir=tfrecords #指向包含“record_info-lm.json”的本地目录的路径
  3. --train_batch_size=8
  4. --seq_len=128
  5. --reuse_len=64
  6. --mem_len=96 #缓冲的step数量
  7. --perm_size=32
  8. --n_layer=6
  9. --d_model=1024
  10. --d_embed=1024
  11. --n_head=16
  12. --d_head=64
  13. --d_inner=4096 #Dimension of inner hidden size in positionwise feed-forward
  14. --untie_r=True #Untie r_w_bias and r_r_bias
  15. --mask_alpha=6
  16. --mask_beta=1
  17. --num_predict=21
  18. --model_dir=mymodel
  19. --uncased=true
  20. --num_core_per_host=1

第一部分:train

训练主要是调用函数train,它的主要代码为:

  1. def train(ps_device):
  2. ##### 得到input function和model function
  3. train_input_fn, record_info_dict = data_utils.get_input_fn(
  4. tfrecord_dir=FLAGS.record_info_dir,
  5. split="train",
  6. bsz_per_host=FLAGS.train_batch_size,
  7. seq_len=FLAGS.seq_len,
  8. reuse_len=FLAGS.reuse_len,
  9. bi_data=FLAGS.bi_data,
  10. num_hosts=1,
  11. num_core_per_host=1, # set to one no matter how many GPUs
  12. perm_size=FLAGS.perm_size,
  13. mask_alpha=FLAGS.mask_alpha,
  14. mask_beta=FLAGS.mask_beta,
  15. uncased=FLAGS.uncased,
  16. num_passes=FLAGS.num_passes,
  17. use_bfloat16=FLAGS.use_bfloat16,
  18. num_predict=FLAGS.num_predict)
  19. # for key, info in record_info_dict.items():
  20. tf.logging.info("num of batches {}".format(record_info_dict["num_batch"]))
  21. ##### 创建输入tensors(placeholder)
  22. # 训练的batch_size平均分配到多个设备(GPU)上
  23. bsz_per_core = FLAGS.train_batch_size // FLAGS.num_core_per_host
  24. params = {
  25. "batch_size": FLAGS.train_batch_size # the whole batch
  26. }
  27. # 调用前面的input函数得到Dataset
  28. train_set = train_input_fn(params)
  29. # 得到一个example
  30. example = train_set.make_one_shot_iterator().get_next()
  31. if FLAGS.num_core_per_host > 1:
  32. examples = [{} for _ in range(FLAGS.num_core_per_host)]
  33. for key in example.keys():
  34. vals = tf.split(example[key], FLAGS.num_core_per_host, 0)
  35. for device_id in range(FLAGS.num_core_per_host):
  36. examples[device_id][key] = vals[device_id]
  37. else:
  38. examples = [example]
  39. ##### 创建计算图的代码
  40. tower_mems, tower_losses, tower_new_mems, tower_grads_and_vars = [], [], [], []
  41. for i in range(FLAGS.num_core_per_host):
  42. reuse = True if i > 0 else None
  43. with tf.device(assign_to_gpu(i, ps_device)), \
  44. tf.variable_scope(tf.get_variable_scope(), reuse=reuse):
  45. # The mems for each tower is a dictionary
  46. mems_i = {}
  47. if FLAGS.mem_len:
  48. # 创建mems,这是Transformer-XL里的思想,保留之前的96个Token的上下文
  49. mems_i["mems"] = create_mems_tf(bsz_per_core)
  50. # 这是创建计算图的核心代码,我们后面会详细分析
  51. # loss_i是loss;new_mems_i是个list,表示每一层的新的96个Token的隐状态
  52. # grads_and_vars_i是梯度和变量,因为需要多个GPU数据并行,
  53. # 所以需要自己来平均所有GPU的梯度然后用它更新参数(而不能用Optimizer)
  54. loss_i, new_mems_i, grads_and_vars_i = single_core_graph(
  55. is_training=True,
  56. features=examples[i],
  57. mems=mems_i)
  58. tower_mems.append(mems_i)
  59. tower_losses.append(loss_i)
  60. tower_new_mems.append(new_mems_i)
  61. tower_grads_and_vars.append(grads_and_vars_i)
  62. ## 如果有多个GPU,那么需要求出平均的梯度,我们这里不分析
  63. if len(tower_losses) > 1:
  64. loss = tf.add_n(tower_losses) / len(tower_losses)
  65. grads_and_vars = average_grads_and_vars(tower_grads_and_vars)
  66. else:
  67. loss = tower_losses[0]
  68. grads_and_vars = tower_grads_and_vars[0]
  69. ## 根据grads_and_vars得到训练的Opertaion,此外还会返回learning_rate和gnorm
  70. train_op, learning_rate, gnorm = model_utils.get_train_op(FLAGS, None,
  71. grads_and_vars=grads_and_vars)
  72. global_step = tf.train.get_global_step()
  73. ##### 训练的循环
  74. # 首先初始化mems
  75. tower_mems_np = []
  76. for i in range(FLAGS.num_core_per_host):
  77. mems_i_np = {}
  78. for key in tower_mems[i].keys():
  79. mems_i_np[key] = initialize_mems_np(bsz_per_core)
  80. tower_mems_np.append(mems_i_np)
  81. # 保存checkpoint的Saver
  82. saver = tf.train.Saver()
  83. # GPUOptions,允许它动态的使用更多GPU内存
  84. gpu_options = tf.GPUOptions(allow_growth=True)
  85. # 从之前的checkpoint恢复参数
  86. model_utils.init_from_checkpoint(FLAGS, global_vars=True)
  87. with tf.Session(config=tf.ConfigProto(allow_soft_placement=True,
  88. gpu_options=gpu_options)) as sess:
  89. # 允许初始化所有变量的操作
  90. sess.run(tf.global_variables_initializer())
  91. # 需要运行的ops:包括loss,新的mem,global_step,gnorm,learning_rate和train_op
  92. fetches = [loss, tower_new_mems, global_step, gnorm, learning_rate, train_op]
  93. total_loss, prev_step = 0., -1
  94. while True:
  95. feed_dict = {}
  96. # 用上一个数据的96个mem作为当前的mem
  97. for i in range(FLAGS.num_core_per_host):
  98. for key in tower_mems_np[i].keys():
  99. for m, m_np in zip(tower_mems[i][key], tower_mems_np[i][key]):
  100. feed_dict[m] = m_np
  101. # 进行一次随机梯度下降
  102. fetched = sess.run(fetches, feed_dict=feed_dict)
  103. # 拿到loss;新的mems和当前的steps
  104. loss_np, tower_mems_np, curr_step = fetched[:3]
  105. total_loss += loss_np
  106. if curr_step > 0 and curr_step % FLAGS.iterations == 0:
  107. curr_loss = total_loss / (curr_step - prev_step)
  108. tf.logging.info("[{}] | gnorm {:.2f} lr {:8.6f} "
  109. "| loss {:.2f} | pplx {:>7.2f}, bpc {:>7.4f}".format(
  110. curr_step, fetched[-3], fetched[-2],
  111. curr_loss, math.exp(curr_loss), curr_loss / math.log(2)))
  112. total_loss, prev_step = 0., curr_step
  113. if curr_step > 0 and curr_step % FLAGS.save_steps == 0:
  114. save_path = os.path.join(FLAGS.model_dir, "model.ckpt")
  115. saver.save(sess, save_path)
  116. tf.logging.info("Model saved in path: {}".format(save_path))
  117. if curr_step >= FLAGS.train_steps:
  118. break

如果忽略多设备(GPU)训练的细节,train的代码结构其实并不复杂,它大致可以分为3部分:

  • 调用data_utils.get_input_fn得到train_input_fn

  • 调用single_core_graph构造XLNet网络

  • 使用session运行fetches进行训练

我们在计算当前句子时会用到之前的96个Token作为上下文,因此需要创建mems:

  1. def create_mems_tf(bsz_per_core):
  2. mems = [tf.placeholder(dtype=tf.float32,
  3. shape=[FLAGS.mem_len, bsz_per_core, FLAGS.d_model])
  4. for layer in range(FLAGS.n_layer)]
  5. return mems

在此它是创建了长度为n_layer的list,每一个元素的shape是[96, 8, 1024],96是mem的长度,8是batch_size,1024是隐单元个数。

第二部分:data_utils.get_input_fn

接下面我们详细的来介绍train函数处理Dataset输入以及构建计算图的代码。

get_input_fn函数主要代码

这个函数的返回值是Estimator的一个函数和一个record_info对象,这个record_info对象记录读取的TFRecord的num_batch和file_names等数据;而第一个函数执行后的返回值是一个tf.data.Dataset,这是Tensorflow标准的输入方式。

返回值知道了,我们再来看这个函数的参数:

  • tfrecord_dir 训练数据目录,如果有多个用逗号”,”分开,这里是’traindata/tfrecords’,参考第一部分。
  • split 这里是”train”表示训练数据。
  • bsz_per_host 每个host(机器)的batch大小,这里是8。
  • seq_len 句子长度,这里是128。
  • reuse_len 句子中前面不变的部分,这里是64,请参考第一部分。
  • bi_data 是否双向的模型,这里是True。
  • num_hosts=1 有多少台机器,这里是1。
  • num_core_per_host=1 每天机器有多少个设备(GPU),这里是1。
  • perm_size=None, 排列打散的长度,这里是32,后面会讲到。
  • mask_alpha=None, 这里是6
  • mask_beta=None, 这里是1
  • uncased=False, 是否不区分大小,这里是True,表示不区分大小写
  • num_passes=None, 训练的趟数,这里是1表示这是第一趟训练
  • use_bfloat16=False, 是否使用16位表示的浮点数,这里是False
  • num_predict=None: 用于预测的Token的个数,这里是21
  1. def get_input_fn(
  2. tfrecord_dir,
  3. split,
  4. bsz_per_host,
  5. seq_len,
  6. reuse_len,
  7. bi_data,
  8. num_hosts=1,
  9. num_core_per_host=1,
  10. perm_size=None,
  11. mask_alpha=None,
  12. mask_beta=None,
  13. uncased=False,
  14. num_passes=None,
  15. use_bfloat16=False,
  16. num_predict=None):
  17. # 把所有的record info合并成一个
  18. record_glob_base = format_filename(
  19. prefix="record_info-{}-*".format(split),
  20. bsz_per_host=bsz_per_host,
  21. seq_len=seq_len,
  22. bi_data=bi_data,
  23. suffix="json",
  24. mask_alpha=mask_alpha,
  25. mask_beta=mask_beta,
  26. reuse_len=reuse_len,
  27. uncased=uncased,
  28. fixed_num_predict=num_predict)
  29. record_info = {"num_batch": 0, "filenames": []}
  30. tfrecord_dirs = tfrecord_dir.split(",")
  31. tf.logging.info("Use the following tfrecord dirs: %s", tfrecord_dirs)
  32. # 变量目录,这些目录是用逗号分开的
  33. for idx, record_dir in enumerate(tfrecord_dirs):
  34. record_glob = os.path.join(record_dir, record_glob_base)
  35. tf.logging.info("[%d] Record glob: %s", idx, record_glob)
  36. record_paths = sorted(tf.gfile.Glob(record_glob))
  37. tf.logging.info("[%d] Num of record info path: %d",
  38. idx, len(record_paths))
  39. cur_record_info = {"num_batch": 0, "filenames": []}
  40. # 遍历record_info-train-*.bsz-8.seqlen-128.reuse-64.uncased.bi.alpha-6.beta-1.fnp-21.json
  41. # 能匹配的所有json文件,这里只匹配了:
  42. # record_info-train-0-0.bsz-8.seqlen-128.reuse-64.uncased.bi.alpha-6.beta-1.fnp-21.json
  43. for record_info_path in record_paths:
  44. if num_passes is not None:
  45. # record_info_path为record_info-train-0-0.bsz-8.seqlen-128.....
  46. # record_info-train-0-0代表这是pretraining的训练数据,最后一个0代表这是它的pass_id
  47. # 如果pass_id >= num_passes,那么就会跳过,比如某个数据是record_info-train-0-3,
  48. # 则如果当前训练的趟数num_passes是1,2,3,都会跳过,只有当num_passes大于3时才会训练这个文件
  49. record_info_name = os.path.basename(record_info_path)
  50. fields = record_info_name.split(".")[0].split("-")
  51. pass_id = int(fields[-1])
  52. if len(fields) == 5 and pass_id >= num_passes:
  53. tf.logging.info("Skip pass %d: %s", pass_id, record_info_name)
  54. continue
  55. with tf.gfile.Open(record_info_path, "r") as fp:
  56. # 打开这个json文件
  57. info = json.load(fp)
  58. if num_passes is not None:
  59. eff_num_passes = min(num_passes, len(info["filenames"]))
  60. ratio = eff_num_passes / len(info["filenames"])
  61. cur_record_info["num_batch"] += int(info["num_batch"] * ratio)
  62. cur_record_info["filenames"] += info["filenames"][:eff_num_passes]
  63. else:
  64. cur_record_info["num_batch"] += info["num_batch"]
  65. cur_record_info["filenames"] += info["filenames"]
  66. # 根据json文件找到对应的tfrecord文件,放到`cur_record_info`
  67. new_filenames = []
  68. for filename in cur_record_info["filenames"]:
  69. basename = os.path.basename(filename)
  70. new_filename = os.path.join(record_dir, basename)
  71. new_filenames.append(new_filename)
  72. cur_record_info["filenames"] = new_filenames
  73. tf.logging.info("[Dir %d] Number of chosen batches: %s",
  74. idx, cur_record_info["num_batch"])
  75. tf.logging.info("[Dir %d] Number of chosen files: %s",
  76. idx, len(cur_record_info["filenames"]))
  77. tf.logging.info(cur_record_info["filenames"])
  78. # 把`cur_record_info`放到全局的`record_info`里
  79. record_info["num_batch"] += cur_record_info["num_batch"]
  80. record_info["filenames"] += cur_record_info["filenames"]
  81. tf.logging.info("Total number of batches: %d",
  82. record_info["num_batch"])
  83. tf.logging.info("Total number of files: %d",
  84. len(record_info["filenames"]))
  85. tf.logging.info(record_info["filenames"])
  86. # 返回的input function,调用这个函数后就会得到Dataset对象。
  87. def input_fn(params):
  88. # 一个host(机器)的batch大小 = 每个设备(GPU)的batch大小 * 设备的个数
  89. assert params["batch_size"] * num_core_per_host == bsz_per_host
  90. # 使用get_datset函数构造Dataset对象,后面我们会详细介绍这个函数
  91. dataset = get_dataset(
  92. params=params,
  93. num_hosts=num_hosts,
  94. num_core_per_host=num_core_per_host,
  95. split=split,
  96. file_names=record_info["filenames"],
  97. num_batch=record_info["num_batch"],
  98. seq_len=seq_len,
  99. reuse_len=reuse_len,
  100. perm_size=perm_size,
  101. mask_alpha=mask_alpha,
  102. mask_beta=mask_beta,
  103. use_bfloat16=use_bfloat16,
  104. num_predict=num_predict)
  105. return dataset
  106. return input_fn, record_info

这个函数主要的代码就是遍历目录下的json文件,然后找到对应的tfrecord文件,放到record_info里,同时返回input_fn函数,如果执行input_fn函数,则它会调用get_dataset函数返回Dataset,下面我们来看get_dataset函数。

get_dataset函数

  1. def get_dataset(params, num_hosts, num_core_per_host, split, file_names,
  2. num_batch, seq_len, reuse_len, perm_size, mask_alpha,
  3. mask_beta, use_bfloat16=False, num_predict=None):
  4. bsz_per_core = params["batch_size"]
  5. # 我们这里值考虑一台服务器(host_id=0)的情况
  6. if num_hosts > 1:
  7. host_id = params["context"].current_host
  8. else:
  9. host_id = 0
  10. #### parse tfrecord的函数
  11. def parser(record):
  12. # 这个可以参考第一部分生成数据的内容
  13. # input是输入的句子的id,长度为seq_len=128
  14. # target是预测的id序列,长度也是seq_len
  15. # seg_id 64个reused的Token,A和A后的SEP是0,B和B后的SEP是1,最后的CLS是2
  16. # label 如果两个句子是连续的,那么是1,否则是0
  17. # is_masked表示某个Token是否是masked(用于预测)
  18. record_spec = {
  19. "input": tf.FixedLenFeature([seq_len], tf.int64),
  20. "target": tf.FixedLenFeature([seq_len], tf.int64),
  21. "seg_id": tf.FixedLenFeature([seq_len], tf.int64),
  22. "label": tf.FixedLenFeature([1], tf.int64),
  23. "is_masked": tf.FixedLenFeature([seq_len], tf.int64),
  24. }
  25. # parse
  26. example = tf.parse_single_example(
  27. serialized=record,
  28. features=record_spec)
  29. inputs = example.pop("input")
  30. target = example.pop("target")
  31. is_masked = tf.cast(example.pop("is_masked"), tf.bool)
  32. non_reuse_len = seq_len - reuse_len
  33. assert perm_size <= reuse_len and perm_size <= non_reuse_len
  34. # 先处理前64(reuse),后面会详细介绍这个函数
  35. # 现在我们知道它的输入是inputs的前64个,target的前64个,is_masked的前64个
  36. # perm_size是32,reuse_len是64。
  37. # 它返回的是:
  38. # 1. perm_mask,64x64,表示经过重新排列后第i个token能否attend to 第j个token,1表示不能attend
  39. # 2. target,64,表示真实的目标值,之前生成的target是预测下一个词,但是XLNet是预测当前词
  40. # 3. target_mask,64,哪些地方是Mask的(需要预测的)
  41. # 4. input_k, 64,content stream的初始值
  42. # 5. input_q, 64, 哪些位置是需要计算loss的,如果不计算loss,也就不计算Query Stream。
  43. perm_mask_0, target_0, target_mask_0, input_k_0, input_q_0 = _local_perm(
  44. inputs[:reuse_len],
  45. target[:reuse_len],
  46. is_masked[:reuse_len],
  47. perm_size,
  48. reuse_len)
  49. perm_mask_1, target_1, target_mask_1, input_k_1, input_q_1 = _local_perm(
  50. inputs[reuse_len:],
  51. target[reuse_len:],
  52. is_masked[reuse_len:],
  53. perm_size,
  54. non_reuse_len)
  55. # tf.ones(reuse_len, non_reuse_len)表示前64个reuse的不能attend to 后面64个(1表示不能attend)
  56. # concat起来就变成(reuse_len=64, 128),perm_mask_0(i,j)表示i能不能attend to j(128)
  57. perm_mask_0 = tf.concat([perm_mask_0, tf.ones([reuse_len, non_reuse_len])],
  58. axis=1)
  59. # tf.zeros(non_reuse_len, reuse_len)表示后面的64个可以attend to 前面的64(reuse_len)个
  60. # concat变成(64,128),perm_mask_0(i,j)表示i(后面的64个)能不能attent to j(128)
  61. perm_mask_1 = tf.concat([tf.zeros([non_reuse_len, reuse_len]), perm_mask_1],
  62. axis=1)
  63. # 把perm_mask_0和perm_mask_1 concat起来变成(128,128)
  64. # perm_mask(i,j)表示i(128)能不能attend to j(128)
  65. perm_mask = tf.concat([perm_mask_0, perm_mask_1], axis=0)
  66. # target也concat变成(128,)
  67. target = tf.concat([target_0, target_1], axis=0)
  68. # target_mask也concat成(128,)
  69. target_mask = tf.concat([target_mask_0, target_mask_1], axis=0)
  70. # input_k也concat
  71. input_k = tf.concat([input_k_0, input_k_1], axis=0)
  72. # input_q也concat
  73. input_q = tf.concat([input_q_0, input_q_1], axis=0)
  74. if num_predict is not None:
  75. # indices是[0,1,...,127]
  76. indices = tf.range(seq_len, dtype=tf.int64)
  77. # target_mask中1表示MASK的值,这里把它变成boolean
  78. bool_target_mask = tf.cast(target_mask, tf.bool)
  79. # 找到Mask对应的下标,比如MASK的Token的下标是2和3,那么bool_target_mask=[F,F,T,T,...]
  80. # tf.boolean_mask函数返回indices里为True的值,因此返回[2,3]
  81. indices = tf.boolean_mask(indices, bool_target_mask)
  82. # 因为随机抽样的MASK可能是CLS/SEP,这些是不会被作为预测值的,因此
  83. # 我们之前生成的数据有num_predict(21)个需要预测的,但实际需要预测的只有actual_num_predict
  84. # 所以还需要padding num_predict - actual_num_predict个。
  85. actual_num_predict = tf.shape(indices)[0]
  86. pad_len = num_predict - actual_num_predict
  87. # target_mapping
  88. # 假设indices=[2,3]的话
  89. # 则target_mapping就变成 [[0,0,1,0,....],[0,0,0,1,....]]
  90. # 也就是把2和3用one-hot的方法来表示
  91. target_mapping = tf.one_hot(indices, seq_len, dtype=tf.float32)
  92. # padding的部分也表示成向量,但是它是"zero-hot"的表示。
  93. paddings = tf.zeros([pad_len, seq_len], dtype=target_mapping.dtype)
  94. # concat成[num_redict, seq_len]的向量
  95. # target_mapping(i,j) = 1 表示第i个要预测的Token的目标(真实)值是j
  96. target_mapping = tf.concat([target_mapping, paddings], axis=0)
  97. # 其实不reshape也是可以的。因为除非代码有bug,否则target_mapping就是[num_redict, seq_len]
  98. # reshape的好处是显式的说明target_mapping的shape,调试方便一点。
  99. # 读者可能会问,pad_len = num_predict - actual_num_predict,然后我又
  100. # 把padding的和actual_num_predict的concat起来,为什么TF不知道它的shape呢?
  101. # 因为TF是一种静态图,pad_len只是一个Operation,还没有执行,TF并不知道它的值。
  102. example["target_mapping"] = tf.reshape(target_mapping,
  103. [num_predict, seq_len])
  104. ##### target
  105. # 拿到target的Token ID
  106. target = tf.boolean_mask(target, bool_target_mask)
  107. # 同样需要padding
  108. paddings = tf.zeros([pad_len], dtype=target.dtype)
  109. target = tf.concat([target, paddings], axis=0)
  110. example["target"] = tf.reshape(target, [num_predict])
  111. ##### target mask
  112. # 长度为21(num_predict)的向量,1表示是真正需要预测的Token;0表示是padding的,是不计算loss的
  113. target_mask = tf.concat(
  114. [tf.ones([actual_num_predict], dtype=tf.float32),
  115. tf.zeros([pad_len], dtype=tf.float32)],
  116. axis=0)
  117. example["target_mask"] = tf.reshape(target_mask, [num_predict])
  118. else:
  119. example["target"] = tf.reshape(target, [seq_len])
  120. example["target_mask"] = tf.reshape(target_mask, [seq_len])
  121. # reshape back to fixed shape
  122. example["perm_mask"] = tf.reshape(perm_mask, [seq_len, seq_len])
  123. example["input_k"] = tf.reshape(input_k, [seq_len])
  124. example["input_q"] = tf.reshape(input_q, [seq_len])
  125. _convert_example(example, use_bfloat16)
  126. for k, v in example.items():
  127. tf.logging.info("%s: %s", k, v)
  128. return example
  129. # Get dataset
  130. dataset = parse_files_to_dataset(
  131. parser=parser,
  132. file_names=file_names,
  133. split=split,
  134. num_batch=num_batch,
  135. num_hosts=num_hosts,
  136. host_id=host_id,
  137. num_core_per_host=num_core_per_host,
  138. bsz_per_core=bsz_per_core)
  139. return dataset

主要的代码都在parser函数里,它定义了怎么读取我们在第一部分代码里生成的tfrecord文件,然后进行排列打散(我们还没有具体介绍的_local_perm函数),最后把处理的结果放到example里。接着使用parse_files_to_dataset来得到Dataset,我们来看这个函数。

  1. def parse_files_to_dataset(parser, file_names, split, num_batch, num_hosts,
  2. host_id, num_core_per_host, bsz_per_core):
  3. # list of file pathes
  4. num_files = len(file_names)
  5. num_files_per_host = num_files // num_hosts
  6. my_start_file_id = host_id * num_files_per_host
  7. my_end_file_id = (host_id + 1) * num_files_per_host
  8. if host_id == num_hosts - 1:
  9. my_end_file_id = num_files
  10. file_paths = file_names[my_start_file_id: my_end_file_id]
  11. tf.logging.info("Host %d handles %d files", host_id, len(file_paths))
  12. assert split == "train"
  13. dataset = tf.data.Dataset.from_tensor_slices(file_paths)
  14. # 文件级别的shuffle
  15. if len(file_paths) > 1:
  16. dataset = dataset.shuffle(len(file_paths))
  17. # 注意:这里我们不能对每一个sample进行打散,这样会破坏句子的Token的顺序。
  18. dataset = tf.data.TFRecordDataset(dataset)
  19. # (zihang): 因为我们是online的随机排列,因此每次session.run的时候排列的顺序都是不同的,
  20. # 所以cache是没有作用的,它会导致OOM。因此我们只cache parser之前的数据(cache函数在map(parser)之前)
  21. # map(parser)就是对每一个tfrecord使用前面介绍的parser函数来处理
  22. dataset = dataset.cache().map(parser).repeat()
  23. dataset = dataset.batch(bsz_per_core, drop_remainder=True)
  24. dataset = dataset.prefetch(num_core_per_host * bsz_per_core)
  25. return dataset

_local_perm函数

这个函数比较难懂,这里介绍一个小技巧。如果读者对比过PyTorch和Tensorflow就会感觉使用PyTorch调试会简单很多,原因就是PyTorch是动态的计算图,因此我们把两个Tensor一相加,结果马上就出来了;但是Tensoflow是静态图,我们定义了两个Tensor相加后得到的不是它们的计算结果,而是一个Operation,我们还要用session来run它才能得到结果。如果计算简单还好,一个复杂的的函数经过一系列变换后就完全不知道它的shape是什么了。因此调试PyTorch的代码就像调试普通的Python代码一样;而调试Tensorflow的代码就像”阅读”Pyton代码一样——你看不到执行的结果。不过还有Tensorflow引入了Eager Execution。但是很多代码(包括这里的XLNet)还是习惯用之前的静态构造方法。不过没有关系,如果我们遇到一个函数看不到,那么我们可以对这个函数进行Eager Execution来调试它。比如我们如果看不到_local_perm,则我们可以这样来调试它:

  1. import tensorflow as tf
  2. # 开启Eager Execution
  3. tf.enable_eager_execution()
  4. seq_len = 16
  5. reuse_len = 8
  6. perm_size = 8
  7. inputs=tf.constant([10,13,15,20,21,22,4,16,33,34,35,36,37,38,4,3])
  8. targets=tf.constant([13,15,20,21,22,4,16,33,34,35,36,37,38,10,3,3])
  9. is_masked=tf.constant([False, False, False, False, True, True,False,
  10. False, False,False, False, False,
  11. True, True, False, False])
  12. _local_perm(inputs,targets, is_masked, perm_size, seq_len)

其中seq_len表示输入的长度,perm_size表示排列打散的长度。inputs表示输入,targets表示输出,其中4和3是特殊的SEP和CLS。is_masked表示某个输入是否是MASK(用于预测的),上面的例子里第5和6个位置、第13和14个位置都是Masked,也就是需要模型预测计算loss的位置。

接下来我们就可以增加断点单步执行从而来了解这个函数的作用了。

  1. def _local_perm(inputs, targets, is_masked, perm_size, seq_len):
  2. 随机的采样一种排列方式,然后创建对应的attention mask
  3. 参数:
  4. inputs: int64 Tensor shape是[seq_len],输入的id
  5. targets: int64 Tensor shape是[seq_len],目标值的id
  6. is_masked: bool Tensor shape是[seq_len],True代表用于预测
  7. perm_size: 最长排列的长度,具体含义参考下面的代码
  8. seq_len: int, 序列长度

#生成随机的排列

  1. # 随机生成一个下标的排列
  2. index = tf.range(seq_len, dtype=tf.int64)
  3. index = tf.transpose(tf.reshape(index, [-1, perm_size]))
  4. index = tf.random_shuffle(index)
  5. index = tf.reshape(tf.transpose(index), [-1])

根据上面的输入,首先用tf.range生成[0, 15]的序列,然后第二行代码首先把它reshape成[2, 8],然后transpose成[8, 2],从而得到:

  1. 0 8
  2. 1 9
  3. 2 10
  4. 3 11
  5. 4 12
  6. 5 13
  7. 6 14
  8. 7 15

然后使用tf.random_shuffle对第一列进行随机打散,得到:

  1. 4 12
  2. 6 14
  3. 7 15
  4. 2 10
  5. 3 11
  6. 5 13
  7. 0 8
  8. 1 9

最后transpose然后reshape成长度为16的向量:

[4  6  7  2  3  5  0  1 12 14 15 10 11 13  8  9]

总结一下代码的效果:把长度为seq_len(=16)的向量分成seq_len/perm_size(=2)段,每段进行随机打散。

#得到特殊Token

1.首先是得到non_func_tokens,所谓的non_func_tokens是指SEP和CLS之外的”正常”的Token。

  1. non_func_tokens = tf.logical_not(tf.logical_or(
  2. tf.equal(inputs, data_utils.SEP_ID),
  3. tf.equal(inputs, data_utils.CLS_ID)))
  4. # 计算后的non_func_tokens为:
  5. [True True True True True True False True True True True True True True False False]

根据前面的输入inputs,第7个位置为SEP,15和16为SEP和CLS,因此这三个位置为False,其余都为True。

2.然后是non_mask_tokens,non_mask_tokens指的是”正常”的并且没有被Mask的Token。

  1. non_mask_tokens = tf.logical_and(tf.logical_not(is_masked), non_func_tokens)
  2. # non_mask_tokens的值为:
  3. # [True True True True False False False True True True True True False False False False]

因此如果一个Token是non_mask_tokens,那么它首先是”正常”的Token(non_func_tokens为True),然后还得没有被Mask(is_masked为False)。

3.masked_or_func_tokens,它和non_mask_tokens相反,包括Masked的Token和SEP与CLS。

  1. masked_or_func_tokens = tf.logical_not(non_mask_tokens)
  2. # [False False False False True True True False False False False False True True True True]

#计算rev_index

  1. # 把非Mask(也不是CLS和SEP)的Token的排列下标设置为最小的-1,这样:
  2. # (1) 它们可以被所有其它的位置看到
  3. # (2) 它们看不到Masked位置,从而不会有信息泄露
  4. smallest_index = -tf.ones([seq_len], dtype=tf.int64)
  5. rev_index = tf.where(non_mask_tokens, smallest_index, index)
  6. # [-1 -1 -1 -1 3 5 0 -1 -1 -1 -1 -1 11 13 8 9]

tf.where函数的作用等价于:

  1. for i in range(16):
  2. if non_mask_tokens[i]:
  3. rev_index[i]=smallest_index[i]
  4. else:
  5. smallest_index[i]=index[i]

这样得到的rev_index为:如果某个位置是非Mask的,则其值为-1;反正如果某个位置是Mask(5,6,13,14)或者为特殊的SEP/CLS(7,15,16),则值为前面随机生成的下标。

#target_mask

  1. # 创建`target_mask`: 它是"普通"的并且被Masked的Token,它的值代表:
  2. # 1: 值为1代表使用mask作为输入并且计算loss
  3. # 0: 使用token(或者SEP/CLS)作为输入并且不计算loss
  4. target_tokens = tf.logical_and(masked_or_func_tokens, non_func_tokens)
  5. target_mask = tf.cast(target_tokens, tf.float32)
  6. # [0. 0. 0. 0. 1. 1. 0. 0. 0. 0. 0. 0. 1. 1. 0. 0.]

我们看到,is_masked为True的下标对应的target_mask为1,其余为0。

perm_mask

  1. # `target_tokens` 不能看到自己
  2. self_rev_index = tf.where(target_tokens, rev_index, rev_index + 1)
  3. # [0 0 0 0 3 5 1 0 0 0 0 0 11 13 9 10]

因为target_tokens不能看到自己,因此它的值就是rev_index,而其余的加1(如果原来是-1,那么变成0,否则就是排列下标加一)。

  1. # 1: 如果i <= j并且j不是非masked(masked或者特殊的SEP/CLS)则不能attend,因此值为1
  2. # 0: 如果i > j或者j非masked,则为0
  3. perm_mask = tf.logical_and(
  4. self_rev_index[:, None] <= rev_index[None, :],
  5. masked_or_func_tokens)
  6. perm_mask = tf.cast(perm_mask, tf.float32)
  7. # 值为:
  8. [[0. 0. 0. 0. 1. 1. 1. 0. 0. 0. 0. 0. 1. 1. 1. 1.]
  9. [0. 0. 0. 0. 1. 1. 1. 0. 0. 0. 0. 0. 1. 1. 1. 1.]
  10. [0. 0. 0. 0. 1. 1. 1. 0. 0. 0. 0. 0. 1. 1. 1. 1.]
  11. [0. 0. 0. 0. 1. 1. 1. 0. 0. 0. 0. 0. 1. 1. 1. 1.]
  12. [0. 0. 0. 0. 1. 1. 0. 0. 0. 0. 0. 0. 1. 1. 1. 1.]
  13. [0. 0. 0. 0. 0. 1. 0. 0. 0. 0. 0. 0. 1. 1. 1. 1.]
  14. [0. 0. 0. 0. 1. 1. 0. 0. 0. 0. 0. 0. 1. 1. 1. 1.]
  15. [0. 0. 0. 0. 1. 1. 1. 0. 0. 0. 0. 0. 1. 1. 1. 1.]
  16. [0. 0. 0. 0. 1. 1. 1. 0. 0. 0. 0. 0. 1. 1. 1. 1.]
  17. [0. 0. 0. 0. 1. 1. 1. 0. 0. 0. 0. 0. 1. 1. 1. 1.]
  18. [0. 0. 0. 0. 1. 1. 1. 0. 0. 0. 0. 0. 1. 1. 1. 1.]
  19. [0. 0. 0. 0. 1. 1. 1. 0. 0. 0. 0. 0. 1. 1. 1. 1.]
  20. [0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 1. 1. 0. 0.]
  21. [0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 1. 0. 0.]
  22. [0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 1. 1. 0. 1.]
  23. [0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 1. 1. 0. 0.]]

上面的代码”self_rev_index[:, None] <= rev_index[None, :]”我们来详细分析一下。

首先self_rev_index是一个长度为16的Tensor,我们使用self_rev_index[:, None]把它变成(16,1)的Tensor。

rev_index也是长度为的Tensor,rev_index[None, :]变成了(1,16)的Tensor。然后它们比较(“<=”)时会使用Broadcasting,我们可以了解为self_rev_index[:, None]变成了(16,16)的,每行都是相同的:

  1. Broadcasting之前:
  2. [[ 0]
  3. [ 0]
  4. [ 0]
  5. [ 0]
  6. [ 3]
  7. [ 5]
  8. [ 1]
  9. [ 0]
  10. [ 0]
  11. [ 0]
  12. [ 0]
  13. [ 0]
  14. [11]
  15. [13]
  16. [ 9]
  17. [10]]
  18. Broadcasting之后:
  19. [[ 0, 0, 0, ....]
  20. [ 0, 0, 0, ....]
  21. [ 0, 0, 0, ....]
  22. [ 0, 0, 0, ....]
  23. [ 3, 3, 3, ....]
  24. [ 5, 5, 5, ....]
  25. [ 1, 1, 1, ....]
  26. [ 0, 0, 0, ....]
  27. [ 0, 0, 0, ....]
  28. [ 0, 0, 0, ....]
  29. [ 0, 0, 0, ....]
  30. [ 0, 0, 0, ....]
  31. [11, 11,11,....]
  32. [13,13, 13,....]
  33. [ 9, 9, 9, ....]
  34. [10, 10,10,....]]

类似的,rev_index[None, :]在Broadcasting之前为:

[-1 -1 -1 -1  3  5  0 -1 -1 -1 -1 -1 11 13  8  9]

而Broadcasting之后变成:

  1. [[-1 -1 -1 -1 3 5 0 -1 -1 -1 -1 -1 11 13 8 9],
  2. [-1 -1 -1 -1 3 5 0 -1 -1 -1 -1 -1 11 13 8 9],
  3. ....
  4. ]

因此,最终得到的perm_mask(i,j)=1,则表示i不能attend to j。有两种情况i能attend to j:i的排列下标大于j(后面的可以attend to前面的);j没有被Mask在i也可以attend to j。而i不能attend to j需要同时满足:i<=j并且j被Mask了我们来看一个例子:perm_mask(3,4)=1,因为第3个Token的排列下标是2,第4个的排列下标是3,所以满足”2<3”。请读者检查确认一下j确实是被Mask了。

#new target

对于常规的语言模型来说,我们是预测下一个词,而XLNet是根据之前的状态和当前的位置预测被MASK的当前词。所以真正的new_targets要前移一个。

  1. # new target: [next token] for LM and [curr token] (self) for PLM
  2. new_targets = tf.concat([inputs[0: 1], targets[: -1]],
  3. axis=0)
  4. # [10 13 15 20 21 22 4 16 33 34 35 36 37 38 10 3]
  5. inputs=tf.constant([10,13,15,20,21,22,4,16,33,34,35,36,37,38,4,3])
  6. targets=tf.constant([13,15,20,21,22,4,16,33,34,35,36,37,38,10,3,3])

最终的返回值:

  1. # construct inputs_k
  2. inputs_k = inputs
  3. # construct inputs_q
  4. inputs_q = target_mask
  5. return perm_mask, new_targets, target_mask, inputs_k, inputs_q

#_local_perm的实现和论文的对比

如果读者还没有完全明白,我们再来把代码和论文的描述对比一下。论文在Partial Prediction部分提到:为了提高效率,我们只预测排列最后几个词。比如假设总共4个词,并且假设某次随机排列的顺序为3→2→4→13→2→4→1,我们假设预测(Mask)最后两个词,也就是预测第4和第1个词。那么1可以attend to [2,3,4];4可以attend to [2,3]。而非Mask(预测)的第2和3个词使用普通的Self-Attention,也就是可以互相看到所有的非Mask词(包括自己),因此2可以attend to [2,3],3也可以attend to [2,3]。

上面按照论文我们随机排列,然后选择最后的几个词作为Mask;而前面的代码我们先已经选定了要Mask的值,然后再排列,这就可能出现非Mask值的排列下标有可能Mask的值,比如假设我们选定Mask第2个和第3个词,但是随机的排列为:

2 3 1 4

也就是说第2个词在排列里的顺序是1,第3个词是2。那么按照论文应该是预测第1个和第4个词。那怎么办呢?代码使用了一个tricky,把所有的非Mask的词(第1个和第4个都变成-1),而Mask的不变(总是大于0的),因此Mask的词就排在后面了。非Mask的词互相都可以attend to但是非Mask的词不能attend to Mask的词。Mask的词可以attend to 非Mask的词而且后面的Mask的词也能attend to 前面的Mask的词。比如上面的例子2和3都是Mask的词,因为3在2后面,所以3可以attend to 2,但2不能attend to 3。同时,Mask的词不能attend to 自己(否则就是用自己预测自己了)。

如果读者还是没有理解这个函数也没有太多关系,但是至少要知道这个函数的干什么的,也就是输入输出是什么,具体怎么实现的可以当成黑盒。

总结一下,_local_perm返回的值:

  • perm_mask,64x64,表示经过重新排列后第i个token能否attend to 第j个token,1表示不能attend
  • target,64,表示真实的目标值,之前生成的target是预测下一个词,但是XLNet是预测当前词
  • target_mask,64,哪些地方是Mask的(需要预测的)
  • input_k, 64,content stream的初始值
  • input_q, 64, 哪些位置是需要计算loss的,如果不计算loss,也就不计算Query Stream。

第三部分:single_core_graph

这个函数的作用构建XLNet计算图的,是我们需要重点理解的部分。不过这个函数没几行代码:

  1. def single_core_graph(is_training, features, mems):
  2. model_fn = get_model_fn()
  3. model_ret = model_fn(
  4. features=features,
  5. labels=None,
  6. mems=mems,
  7. is_training=is_training)
  8. return model_ret

它调用get_model_fn得到model function,然后调用这个函数返回total_loss, new_mems, grads_and_vars这3个Operation,下面我们来看get_model_fn函数。

get_model_fn

  1. def get_model_fn():
  2. def model_fn(features, labels, mems, is_training):
  3. #### 根据输入计算loss
  4. total_loss, new_mems, monitor_dict = function_builder.get_loss(
  5. FLAGS, features, labels, mems, is_training)
  6. #### 打印模型的参数(便于调试)
  7. num_params = sum([np.prod(v.shape) for v in tf.trainable_variables()])
  8. tf.logging.info('#params: {}'.format(num_params))
  9. # GPU
  10. assert is_training
  11. # 得到所有可能训练的变量
  12. all_vars = tf.trainable_variables()
  13. # 计算梯度
  14. grads = tf.gradients(total_loss, all_vars)
  15. # 把梯度和变量配对,最终返回一个list,这个list的每一个元素都是(grad, var)的pair
  16. grads_and_vars = list(zip(grads, all_vars))
  17. return total_loss, new_mems, grads_and_vars
  18. return model_fn

这个函数主要是调用function_builder.get_loss得到total_loss, new_mems,然后计算梯度并且返回。

function_builder.get_loss

  1. def get_loss(FLAGS, features, labels, mems, is_training):
  2. """Pretraining loss with two-stream attention Transformer-XL."""
  3. if FLAGS.use_bfloat16:
  4. with tf.tpu.bfloat16_scope():
  5. return two_stream_loss(FLAGS, features, labels, mems, is_training)
  6. else:
  7. return two_stream_loss(FLAGS, features, labels, mems, is_training)

我们这里使用普通的float(float32)而不是压缩的bfloat16,关于bfloat16,有兴趣的读者可以参考Using bfloat16 with TensorFlow models。最终它们都是调用two_stream_loss函数。

two_stream_loss

  1. def two_stream_loss(FLAGS, features, labels, mems, is_training):
  2. # two-stream attention Transformer-XL模型的Pretraining loss
  3. #### Unpack input
  4. mem_name = "mems"
  5. # mems是长度为6的list,每个元素是[96, 8(batch), 1024(hidden state)]
  6. mems = mems.get(mem_name, None)
  7. # input_k是(8,128)变成(128,8)
  8. inp_k = tf.transpose(features["input_k"], [1, 0])
  9. # input_q也是(8,128),变成(128,8)
  10. inp_q = tf.transpose(features["input_q"], [1, 0])
  11. # seg_id也是(8,128),变成(128,8)
  12. seg_id = tf.transpose(features["seg_id"], [1, 0])
  13. inp_mask = None
  14. # 从(8,128,128)变成(128,128,8)
  15. perm_mask = tf.transpose(features["perm_mask"], [1, 2, 0])
  16. if FLAGS.num_predict is not None:
  17. # 从(8, 21, 128)变成(21(num_predict), 128, 8)
  18. target_mapping = tf.transpose(features["target_mapping"], [1, 2, 0])
  19. else:
  20. target_mapping = None
  21. # 语言模型loss的target,从(8,21)变成(21,8)
  22. tgt = tf.transpose(features["target"], [1, 0])
  23. # 语言模型losss的target mask,从(8,21)变成(21,8)
  24. tgt_mask = tf.transpose(features["target_mask"], [1, 0])
  25. # 构造xlnet的config然后保存到model_dir目录下
  26. # XLNetConfig包含某个checkpoint特定的超参数
  27. # 也就是pretraining和finetuing都相同的超参数
  28. xlnet_config = xlnet.XLNetConfig(FLAGS=FLAGS)
  29. xlnet_config.to_json(os.path.join(FLAGS.model_dir, "config.json"))
  30. # 根据FLAGS构造run config,它是XLNet模型Pretraining的超参数。
  31. run_config = xlnet.create_run_config(is_training, False, FLAGS)
  32. xlnet_model = xlnet.XLNetModel(
  33. xlnet_config=xlnet_config,
  34. run_config=run_config,
  35. input_ids=inp_k,
  36. seg_ids=seg_id,
  37. input_mask=inp_mask,
  38. mems=mems,
  39. perm_mask=perm_mask,
  40. target_mapping=target_mapping,
  41. inp_q=inp_q)
  42. output = xlnet_model.get_sequence_output()
  43. new_mems = {mem_name: xlnet_model.get_new_memory()}
  44. lookup_table = xlnet_model.get_embedding_table()
  45. initializer = xlnet_model.get_initializer()
  46. with tf.variable_scope("model", reuse=tf.AUTO_REUSE):
  47. # LM loss
  48. lm_loss = modeling.lm_loss(
  49. hidden=output,
  50. target=tgt,
  51. n_token=xlnet_config.n_token,
  52. d_model=xlnet_config.d_model,
  53. initializer=initializer,
  54. lookup_table=lookup_table,
  55. tie_weight=True,
  56. bi_data=run_config.bi_data,
  57. use_tpu=run_config.use_tpu)
  58. #### Quantity to monitor
  59. monitor_dict = {}
  60. if FLAGS.use_bfloat16:
  61. tgt_mask = tf.cast(tgt_mask, tf.float32)
  62. lm_loss = tf.cast(lm_loss, tf.float32)
  63. total_loss = tf.reduce_sum(lm_loss * tgt_mask) / tf.reduce_sum(tgt_mask)
  64. monitor_dict["total_loss"] = total_loss
  65. return total_loss, new_mems, monitor_dict

XLNetConfig

XLNetConfig包含某个checkpoint特定的超参数,也就是pretraining和finetuing都相同的超参数。它包括:

  • n_layer: int, XLNet的层数,这里是6。
  • d_model: int, 隐单元个数,这里是1024。
  • n_head: int, attention head的个数,这里是16。
  • d_head: int, 每个attention head的大小,要求n_head*d_head=d_model,这里是64。
  • d_inner: int, 全连接网络的隐单元个数,这里是4096。
  • ff_activation: str, “relu”或者”gelu”。
  • untie_r: bool, 是否不同层不共享bias,这里为True,也就是每层都有独立的bias。
  • n_token: int, 词典大小,这里是32000。

RunConfig

这是Pretraining的一些超参数:

  1. bi_data = {bool} True 表示一个句子会变成两个:一个是正常的,一个是逆序的(反过来)。
  2. clamp_len = {int} -1
  3. dropatt = {float} 0.1 attention的dropout
  4. dropout = {float} 0.1
  5. init = {str} 'normal' 参数初始化方法,这里是正态分布
  6. init_range = {float} 0.1 对于normal无效果
  7. init_std = {float} 0.02 正态分布的方差
  8. is_training = {bool} True 是否Pretraining
  9. mem_len = {int} 96
  10. reuse_len = {int} 64
  11. same_length = {bool} False
  12. use_bfloat16 = {bool} False
  13. use_tpu = {bool} False

XLNetModel

这是真正定义XLNet模型的类。它定义XLNet的代码都在构造函数里,其余的一些函数都是一些getter类函数,比如get_sequence_output可以拿到最后一层的隐状态。我们首先来看它的构造函数的参数。

#构造函数的参数

  • xlnet_config: XLNetConfig,XLNet模型结构的超参数,比如层数,head数量等等
  • run_config: RunConfig,运行时的超参数,包括dropout、初始范围等等。
  • input_ids: int32 Tensor,shape是[len, bsz], 输入token的ID
  • seg_ids: int32 Tensor,shape是[len, bsz], 输入的segment ID
  • input_mask: float32 Tensor,shape是[len, bsz], 输入的mask,0是真正的tokens而1是padding的
  • mems: list,每个元素是float32 Tensors,shape是[mem_len, bsz, d_model], 上一个batch的memory
  • perm_mask: float32 Tensor,shape是[len, len, bsz]。
    • 如果perm_mask[i, j, k] = 0,则batch k的第i个Token可以attend to j
    • 如果perm_mask[i, j, k] = 1, 则batch k的第i个Token不可以attend to j
    • 如果是None,则每个位置都可以attend to 所有其它位置(包括自己)
  • target_mapping: float32 Tensor,shape是[num_predict, len, bsz]
    • 如果target_mapping[i, j, k] = 1,则batch k的第i个要预测的是第j个Token,这是一种one-hot表示
    • 只是在pretraining的partial prediction时使用,finetuning时设置为None
  • inp_q: float32 Tensor,shape是[len, bsz]
    • 需要计算loss的(Mask的位置)为1,不需要的值为0,只在pretraining使用,finetuning时应为None

注意:这里的input_mask不是我们之前介绍的is_masked,is_masked是表示这个位置的Token是被预测的。而这里的input_mask其实指的是padding,我们这里是Pretraining,所有的Token都是真实的,因此传入的为None,后面的代码会把None当成没有padding处理。

#构造函数

  1. def __init__(self, xlnet_config, run_config, input_ids, seg_ids, input_mask,
  2. mems=None, perm_mask=None, target_mapping=None, inp_q=None,
  3. **kwargs):
  4. # 初始化类
  5. initializer = _get_initializer(run_config)
  6. # 所有超参数
  7. tfm_args = dict(
  8. n_token=xlnet_config.n_token,
  9. initializer=initializer,
  10. attn_type="bi",
  11. n_layer=xlnet_config.n_layer,
  12. d_model=xlnet_config.d_model,
  13. n_head=xlnet_config.n_head,
  14. d_head=xlnet_config.d_head,
  15. d_inner=xlnet_config.d_inner,
  16. ff_activation=xlnet_config.ff_activation,
  17. untie_r=xlnet_config.untie_r,
  18. is_training=run_config.is_training,
  19. use_bfloat16=run_config.use_bfloat16,
  20. use_tpu=run_config.use_tpu,
  21. dropout=run_config.dropout,
  22. dropatt=run_config.dropatt,
  23. mem_len=run_config.mem_len,
  24. reuse_len=run_config.reuse_len,
  25. bi_data=run_config.bi_data,
  26. clamp_len=run_config.clamp_len,
  27. same_length=run_config.same_length
  28. )
  29. # 所有输入
  30. input_args = dict(
  31. inp_k=input_ids,
  32. seg_id=seg_ids,
  33. input_mask=input_mask,
  34. mems=mems,
  35. perm_mask=perm_mask,
  36. target_mapping=target_mapping,
  37. inp_q=inp_q)
  38. tfm_args.update(input_args)
  39. with tf.variable_scope("model", reuse=tf.AUTO_REUSE):
  40. (self.output, self.new_mems, self.lookup_table
  41. ) = modeling.transformer_xl(**tfm_args)
  42. self.input_mask = input_mask
  43. self.initializer = initializer
  44. self.xlnet_config = xlnet_config
  45. self.run_config = run_config

上面的构造函数核心的代码其实只有一行:

(self.output, self.new_mems, self.lookup_table) = modeling.transformer_xl(**tfm_args)

#transformer_xl构造函数的参数

它的构造函数的参数是前面XLNetModel的构造函数传过来的,不过我们还是列举一下。

  • inp_k: int32 Tensor,shape是[len, bsz], 输入token的ID
  • seg_ids: int32 Tensor,shape是[len, bsz], 输入的segment ID
  • input_mask: float32 Tensor,shape是[len, bsz], 输入的mask,0是真正的tokens而1是padding的
  • mems: list,每个元素是float32 Tensors,shape是[mem_len, bsz, d_model], 上一个batch的memory
  • perm_mask: float32 Tensor,shape是[len, len, bsz]。
    • 如果perm_mask[i, j, k] = 0,则batch k的第i个Token可以attend to j
    • 如果perm_mask[i, j, k] = 1, 则batch k的第i个Token不可以attend to j
    • 如果是None,则每个位置都可以attend to 所有其它位置(包括自己)
  • target_mapping: float32 Tensor,shape是[num_predict, len, bsz]
    • 如果target_mapping[i, j, k] = 1,则batch k的第i个要预测的是第j个Token,这是一种one-hot表示
    • 只是在pretraining的partial prediction时使用,finetuning时设置为None
  • inp_q: float32 Tensor,shape是[len, bsz]
    • 需要计算loss的(Mask的位置)为1,不需要的值为0,只在pretraining使用,finetuning时应为None
  • n_layer: int, XLNet的层数,这里是6。
  • d_model: int, 隐单元个数,这里是1024。
  • n_head: int, attention head的个数,这里是16。
  • d_head: int, 每个attention head的大小,要求n_head*d_head=d_model,这里是64。
  • d_inner: int, 全连接网络的隐单元个数,这里是4096。
  • ff_activation: str, “relu”或者”gelu”。
  • untie_r: bool, 是否不同层不共享bias,这里为True,也就是每层都有独立的bias。
  • n_token: int, 词典大小,这里是32000。

  • is_training: bool, 是否是Training
  • use_tpu: bool, 是否使用TPU
  • use_bfloat16: bool, 是否用bfloat16替代float32
  • dropout: float, dropout大小.
  • dropatt: float, attention概率的dropout
  • init: str, 初始化方法,值为”normal”或者”uniform”
  • init_range: float, 均匀分布的范围,[-init_range, init_range]。只有init=”uniform”时有效
  • init_std: float, 正态分布的方程。只有init=”normal”时有效
  • mem_len: int, cache的token个数
  • reuse_len: int, 当前batch里reuse的数量,参考第一部分。
  • bi_data: bool, 是否双向处理输入,通常在pretraining设置为True,而finetuning为False
  • clamp_len: int, clamp掉相对距离大于clamp_len的attention,-1表示不clamp
  • same_length: bool, 是否对于每个Token使用相同的attention长度
  • summary_type: str, “last”, “first”, “mean”和”attn”。怎么把最后一层的多个向量整合成一个向量
  • initializer: 初始化器
  • scope: 计算图的scope

#transformer_xl构造函数

第一段

  1. with tf.variable_scope(scope):
  2. if untie_r:
  3. # 我们这里是不共享bias
  4. # r_w_bias和r_r_bias都是[6, 16, 64]
  5. r_w_bias = tf.get_variable('r_w_bias', [n_layer, n_head, d_head],
  6. dtype=tf_float, initializer=initializer)
  7. r_r_bias = tf.get_variable('r_r_bias', [n_layer, n_head, d_head],
  8. dtype=tf_float, initializer=initializer)
  9. else:
  10. r_w_bias = tf.get_variable('r_w_bias', [n_head, d_head],
  11. dtype=tf_float, initializer=initializer)
  12. r_r_bias = tf.get_variable('r_r_bias', [n_head, d_head],
  13. dtype=tf_float, initializer=initializer)
  14. bsz = tf.shape(inp_k)[1] # 8
  15. qlen = tf.shape(inp_k)[0] # 128
  16. mlen = tf.shape(mems[0])[0] if mems is not None else 0 # 96
  17. klen = mlen + qlen # 224

上面的代码注意是定义r_w_bias和r_r_bias,以及读取一些超参数。

第二段

  1. ##### Attention mask
  2. # 因果关系的(causal)attention mask
  3. if attn_type == 'uni':
  4. attn_mask = _create_mask(qlen, mlen, tf_float, same_length)
  5. attn_mask = attn_mask[:, :, None, None]
  6. elif attn_type == 'bi':
  7. # 我们走的这个分支
  8. attn_mask = None
  9. else:
  10. raise ValueError('Unsupported attention type: {}'.format(attn_type))
  11. # data mask: input mask & perm mask
  12. if input_mask is not None and perm_mask is not None:
  13. data_mask = input_mask[None] + perm_mask
  14. elif input_mask is not None and perm_mask is None:
  15. data_mask = input_mask[None]
  16. elif input_mask is None and perm_mask is not None:
  17. # data_mask=perm_mask [128,128,8]
  18. data_mask = perm_mask
  19. else:
  20. data_mask = None
  21. if data_mask is not None:
  22. # 所有的mems的可以attended to,因此构造[128,96,8]的zeros
  23. mems_mask = tf.zeros([tf.shape(data_mask)[0], mlen, bsz],
  24. dtype=tf_float)
  25. # 然后拼接成[128,224,8]的data_mask。
  26. # data_mask[i,j,k]=0则表示batch k的第i(0-128)个Token可以attend to
  27. # 第j(0-224,包括前面的mem)个Token。
  28. # 注意j的下标范围,0-95表示mem,96-223表示128个输入。
  29. data_mask = tf.concat([mems_mask, data_mask], 1)
  30. if attn_mask is None:
  31. # attn_mask为[128, 224, 8, 1]
  32. attn_mask = data_mask[:, :, :, None]
  33. else:
  34. attn_mask += data_mask[:, :, :, None]
  35. if attn_mask is not None:
  36. # 把attn_mask里大于0的变成1(前面相加有可能大于1)
  37. attn_mask = tf.cast(attn_mask > 0, dtype=tf_float)
  38. if attn_mask is not None:
  39. # 参考下面
  40. non_tgt_mask = -tf.eye(qlen, dtype=tf_float)
  41. non_tgt_mask = tf.concat([tf.zeros([qlen, mlen], dtype=tf_float),
  42. non_tgt_mask], axis=-1)
  43. non_tgt_mask = tf.cast((attn_mask + non_tgt_mask[:, :, None, None]) > 0,
  44. dtype=tf_float)
  45. else:
  46. non_tgt_mask = None

下面来看一下non_tgt_mask,为了简单,我们假设qlen是4, mlen是3,前两行的结果为:

  1. 0 0 0 -1 0 0 0
  2. 0 0 0 0 -1 0 0
  3. 0 0 0 0 0 -1 0
  4. 0 0 0 0 0 0 -1

attn_mask是(qlen, qlen+mlen, batch, 1),它和non_tgt_mask[:,:,None,None]相加。它的作用是让Token能attend to 自己,除后面的对角线外,non_tgt_mask等于attn_mask,而对角线的位置由1变成了0,从而让它可以attend自己。注意:在XLNet的代码里,0表示可以attend to,而1表示不能attend to。non_tgt_mask用于Content Stream,它不是预测的目标(target),所以可以利用自己的信息。而Query Stream就必须使用attn_mask,预测第i个Token时不能利用自己的内容。

第三段

  1. ##### Word embedding
  2. # 输入inp_k是(128,8),embedding后的word_emb_k是(128,8,1024)
  3. # lookup_table是(32000, 1024)
  4. word_emb_k, lookup_table = embedding_lookup(
  5. x=inp_k,
  6. n_token=n_token,
  7. d_embed=d_model,
  8. initializer=initializer,
  9. use_tpu=use_tpu,
  10. dtype=tf_float,
  11. scope='word_embedding')
  12. # inp_q是(128,8)表示某个位置是否要计算loss
  13. if inp_q is not None:
  14. with tf.variable_scope('mask_emb'):
  15. # mask_emb是[1, 1, 1024]
  16. mask_emb = tf.get_variable('mask_emb', [1, 1, d_model], dtype=tf_float)
  17. if target_mapping is not None:
  18. # tile(复制)成[21, 8, 1024]
  19. word_emb_q = tf.tile(mask_emb, [tf.shape(target_mapping)[0], bsz, 1])
  20. else:
  21. inp_q_ext = inp_q[:, :, None]
  22. word_emb_q = inp_q_ext * mask_emb + (1 - inp_q_ext) * word_emb_k
  23. # output_h是word_emb_k的dropout的结果,shape也是[128, 8, 1024]
  24. output_h = tf.layers.dropout(word_emb_k, dropout, training=is_training)
  25. if inp_q is not None:
  26. # output_g是word_emb_q的dropout,shape也是[21, 8, 1024]
  27. output_g = tf.layers.dropout(word_emb_q, dropout, training=is_training)

上面的output_h和output_g分别是two-stream的初始输入。

第四段

  1. ##### Segment embedding
  2. if seg_id is not None:
  3. if untie_r:
  4. # [6, 16, 64]
  5. r_s_bias = tf.get_variable('r_s_bias', [n_layer, n_head, d_head],
  6. dtype=tf_float, initializer=initializer)
  7. else:
  8. # default case (tie)
  9. r_s_bias = tf.get_variable('r_s_bias', [n_head, d_head],
  10. dtype=tf_float, initializer=initializer)
  11. # [6, 2, 16, 64]
  12. seg_embed = tf.get_variable('seg_embed', [n_layer, 2, n_head, d_head],
  13. dtype=tf_float, initializer=initializer)
  14. # Convert `seg_id` to one-hot `seg_mat`
  15. mem_pad = tf.zeros([mlen, bsz], dtype=tf.int32)
  16. # 输入需要padding 96个0,最终变成(224, 8)
  17. cat_ids = tf.concat([mem_pad, seg_id], 0)
  18. # `1` indicates not in the same segment [qlen x klen x bsz]
  19. # 参考下面的说明。
  20. seg_mat = tf.cast(
  21. tf.logical_not(tf.equal(seg_id[:, None], cat_ids[None, :])),
  22. tf.int32)
  23. seg_mat = tf.one_hot(seg_mat, 2, dtype=tf_float)
  24. else:
  25. seg_mat = None

seg_embed是Segment embedding,XLNet是相对Segment编码:如果两个Token在同一个Segment则是0;否则是1。所以第二维是2。

在阅读seg_mat那段时我们首先需要熟悉Tensorflow增加维度的方法。

seg_id是[128, 8],那么seg_id[:, None]的shape呢?有的读者可能会猜测是[128, 8, 1](我一开始也是这么以为),但这是不对的。[:, None]的意思是在第二个维度增加一维,而原来的第二维(8)被往后推到第三维了,因此seg_id[:, None]的shape是[128, 1, 8],它等价于seg_id[:, None, :]。而cat_ids[None, :]是在第一个维度增加一维,因此是[1, 224, 8]。

接下来tf.equal(seg_id[:, None], cat_ids[None, :])会首先进行broadcasting:

  1. seg_id[:, None]: [128, 1, 8] -> [128, 224, 8]
  2. cat_ids[None, :]: [1, 224, 8] -> [128, 224, 8]

计算的结果是:如果(i,j)的seg_id相同,则为True,否则为False。注意i的取值范围是0-127;而j是0-223。因为我们计算Attention时是用128个去attend to 224(包括96个mem)。最后在用tf.logical_not反过来:1表示在不同Segment而0表示同一个Segment。

最后表示成one-hot的方式(在同一个Segment为[1,0];不同的Segment为[0,1]),变成[128, 224, 8, 2],第四位就是one-hot。

第五段

相对位置编码的基本概念、相对位置编码的详细计算过程

  1. ##### 位置编码,下面我们会详细介绍,它的输出是(352, 8, 1024)
  2. pos_emb = relative_positional_encoding(
  3. qlen, klen, d_model, clamp_len, attn_type, bi_data,
  4. bsz=bsz, dtype=tf_float)
  5. # dropout
  6. pos_emb = tf.layers.dropout(pos_emb, dropout, training=is_training)

我们回到前面的例子,context大小是96,而输入的序列长度是128。因此query的下标i的取值范围是96-223,而key的下标j的取值范围是0-223,所以它们的差的取值范围是(96-223)-(223-0),所以位置差总共有352种可能的取值,所以上面返回的pos_emb的shape是(352, 8, 1024)。

relative_positional_encoding函数

  1. def relative_positional_encoding(qlen, klen, d_model, clamp_len, attn_type,
  2. bi_data, bsz=None, dtype=None):
  3. """创建相对位置编码"""
  4. # [0,2,...,1022] 长度为d_model/2=512
  5. freq_seq = tf.range(0, d_model, 2.0)
  6. if dtype is not None and dtype != tf.float32:
  7. freq_seq = tf.cast(freq_seq, dtype=dtype)
  8. # inv_freq的大小还是512
  9. inv_freq = 1 / (10000 ** (freq_seq / d_model))
  10. if attn_type == 'bi':
  11. # 我们这里attn_type == 'bi'
  12. # beg, end = 224, -128
  13. beg, end = klen, -qlen
  14. elif attn_type == 'uni':
  15. # beg, end = klen - 1, -1
  16. beg, end = klen, -1
  17. else:
  18. raise ValueError('Unknown `attn_type` {}.'.format(attn_type))
  19. if bi_data:
  20. # [224, -127]
  21. fwd_pos_seq = tf.range(beg, end, -1.0)
  22. # [-224, 127]
  23. bwd_pos_seq = tf.range(-beg, -end, 1.0)
  24. if dtype is not None and dtype != tf.float32:
  25. fwd_pos_seq = tf.cast(fwd_pos_seq, dtype=dtype)
  26. bwd_pos_seq = tf.cast(bwd_pos_seq, dtype=dtype)
  27. if clamp_len > 0:
  28. # 把两个词的最大距离限制在-clamp_len和clamp_len之间,我们这里没有限制
  29. fwd_pos_seq = tf.clip_by_value(fwd_pos_seq, -clamp_len, clamp_len)
  30. bwd_pos_seq = tf.clip_by_value(bwd_pos_seq, -clamp_len, clamp_len)
  31. if bsz is not None:
  32. # 参考下面,它的返回是(352, 4, 1024)
  33. fwd_pos_emb = positional_embedding(fwd_pos_seq, inv_freq, bsz//2)
  34. # 返回(352, 4, 1024)
  35. bwd_pos_emb = positional_embedding(bwd_pos_seq, inv_freq, bsz//2)
  36. else:
  37. fwd_pos_emb = positional_embedding(fwd_pos_seq, inv_freq)
  38. bwd_pos_emb = positional_embedding(bwd_pos_seq, inv_freq)
  39. # (352, 8, 1024)
  40. pos_emb = tf.concat([fwd_pos_emb, bwd_pos_emb], axis=1)
  41. else:
  42. fwd_pos_seq = tf.range(beg, end, -1.0)
  43. if dtype is not None and dtype != tf.float32:
  44. fwd_pos_seq = tf.cast(fwd_pos_seq, dtype=dtype)
  45. if clamp_len > 0:
  46. fwd_pos_seq = tf.clip_by_value(fwd_pos_seq, -clamp_len, clamp_len)
  47. pos_emb = positional_embedding(fwd_pos_seq, inv_freq, bsz)
  48. return pos_emb

这个函数返回相对位置的编码,它返回一个(352, 8, 1024)的Tensor。8表示batch,1024表示位置编码的维度,它是和隐单元相同大小,这样可以相加(残差连接)。

前面我们介绍过,这里再复述一下。context大小是96,而输入的序列长度是128。因此query的下标i的取值范围是96-223,而key的下标j的取值范围是0-223,所以它们的差的取值范围是(96-223)-(223-0),所以位置差总共有352种可能的取值,所以上面返回的pos_emb的shape是(352, 8, 1024)。fwd_pos_seq的范围是[224, -127],表示当i>=j时(从后往前)从i attend to j的最大范围是223 attend to 0(加上attend to 自己总共224个可能取值);而i<j时最小值是-127。参考下图:

计算正弦的位置编码是通过下面介绍的函数positional_embedding来实现的,读者可以对照Transformer代码阅读·位置编码来阅读,那里是PyTorch的实现。

tf.einsum函数

在介绍positional_embedding函数之前我们介绍一下Tensorflow的einsum函数,这个函数在下面很多地方都会用到,所以这里单独作为一个小节来介绍一下。

这个函数返回一个Tensor,这个Tensor的元素由Einstein summation习惯的简写公式定义。所谓的Einstein summation指的是由Albert Einstein引入的一种公式简写法。比如计算矩阵A和B的乘积得到C。则C的元素的定义为:

    C[i,k] = sum_j A[i,j] * B[j,k]

如果读者熟悉Latex的公式,则上面内容在Latex里会显示为:

上面的这个公式简写为:

  1. ij,jk->ik

那这种简写方法是什么意思呢?或者说怎么从上面的公式得到简写的呢?它的过程如下:

  • 删除变量、括号和逗号
  • 把”*“变成”,”
  • 去掉求和符号
  • 把输出移动右边,把”=”变成”->”

下面我们按照前面的4个步骤看看这个过程:

  1. C[i,k] = sum_j A[i,j] * B[j,k] 删除变量、括号和逗号变成,
  2. ik = sum_j ij * jk 把"*"变成","
  3. ik = sum_j ij , jk 去掉求和符号
  4. ik = ij,jk 把输出放到右边,把"="变成"->"
  5. ij,jk->ik

下面我们来看一些例子,请读者理解它们的含义,如果不理解,可以按照前面的方法一步一步来。

  1. # 矩阵乘法,这个前面已经介绍过
  2. >>> einsum('ij,jk->ik', m0, m1) # output[i,k] = sum_j m0[i,j] * m1[j, k]
  3. # 向量的内积,注意输出是空,表示输出没有下标,因为输出是一个数值。
  4. >>> einsum('i,i->', u, v) # output = sum_i u[i]*v[i]
  5. # 向量外积
  6. >>> einsum('i,j->ij', u, v) # output[i,j] = u[i]*v[j]
  7. # 矩阵转置
  8. >>> einsum('ij->ji', m) # output[j,i] = m[i,j]
  9. # Batch 矩阵乘法
  10. >>> einsum('aij,ajk->aik', s, t) # out[a,i,k] = sum_j s[a,i,j] * t[a, j, k]

positional_embedding

  1. def positional_embedding(pos_seq, inv_freq, bsz=None):
  2. # 计算pos_seq和inv_freq的外积
  3. # 352 x 512
  4. sinusoid_inp = tf.einsum('i,d->id', pos_seq, inv_freq)
  5. # 计算sin和cos,然后拼接成(352, 1024)
  6. pos_emb = tf.concat([tf.sin(sinusoid_inp), tf.cos(sinusoid_inp)], -1)
  7. # 变成(352, 1, 1024) 如果不懂None的含义请参考第二部分
  8. # 它等价于tf.reshape(pos_emb, [352, 1, 1024])
  9. pos_emb = pos_emb[:, None, :]
  10. if bsz is not None:
  11. # 对每个batch复制,变成(352, 8, 1024)
  12. pos_emb = tf.tile(pos_emb, [1, bsz, 1])
  13. return pos_emb

相对位置编码向量的获得就介绍到这,后面在Attention的计算是会用到pos_emb,我们到时候再看具体的计算。

第六段

这一对是核心的计算two stream attention的地方。

  1. ##### Attention layers
  2. if mems is None:
  3. mems = [None] * n_layer
  4. for i in range(n_layer):
  5. # 通过当前的输出计算新的mem,也就是保留128个中的后96个
  6. # 当然如果cache的大小大于当前的输入,那么mem里可能包含当前输入的全部以及之前的mem
  7. new_mems.append(_cache_mem(output_h, mems[i], mem_len, reuse_len))
  8. # segment bias
  9. if seg_id is None:
  10. r_s_bias_i = None
  11. seg_embed_i = None
  12. else:
  13. # 这里是不共享bias的,所以从r_s_bias(6, 16, 64)取出
  14. # 当前层的bias(16, 64)
  15. r_s_bias_i = r_s_bias if not untie_r else r_s_bias[i]
  16. # 从(6, 2, 16, 64)取出当前层的segment embedding
  17. # seg_embed_i为(2, 16, 64)
  18. seg_embed_i = seg_embed[i]
  19. with tf.variable_scope('layer_{}'.format(i)):
  20. # inp_q表示哪些位置是Mask从而计算loss,也表示这是Pretraining
  21. if inp_q is not None:
  22. # 这是计算two stream attention,下面会详细介绍
  23. # 它的返回值output_h表示
  24. # output_g表示
  25. output_h, output_g = two_stream_rel_attn(
  26. h=output_h,
  27. g=output_g,
  28. r=pos_emb,
  29. r_w_bias=r_w_bias if not untie_r else r_w_bias[i],
  30. r_r_bias=r_r_bias if not untie_r else r_r_bias[i],
  31. seg_mat=seg_mat,
  32. r_s_bias=r_s_bias_i,
  33. seg_embed=seg_embed_i,
  34. attn_mask_h=non_tgt_mask,
  35. attn_mask_g=attn_mask,
  36. mems=mems[i],
  37. target_mapping=target_mapping,
  38. d_model=d_model,
  39. n_head=n_head,
  40. d_head=d_head,
  41. dropout=dropout,
  42. dropatt=dropatt,
  43. is_training=is_training,
  44. kernel_initializer=initializer)
  45. reuse = True
  46. else:
  47. reuse = False
  48. output_h = rel_multihead_attn(
  49. h=output_h,
  50. r=pos_emb,
  51. r_w_bias=r_w_bias if not untie_r else r_w_bias[i],
  52. r_r_bias=r_r_bias if not untie_r else r_r_bias[i],
  53. seg_mat=seg_mat,
  54. r_s_bias=r_s_bias_i,
  55. seg_embed=seg_embed_i,
  56. attn_mask=non_tgt_mask,
  57. mems=mems[i],
  58. d_model=d_model,
  59. n_head=n_head,
  60. d_head=d_head,
  61. dropout=dropout,
  62. dropatt=dropatt,
  63. is_training=is_training,
  64. kernel_initializer=initializer,
  65. reuse=reuse)

这段代码把下一层的输出更新mem,然后把它作为上一层的输入。核心是使用two_stream_rel_attn函数计算Attention。我们先看mem的更新。

_cache_mem函数

_cache_mem函数代码如下:

  1. def _cache_mem(curr_out, prev_mem, mem_len, reuse_len=None):
  2. """把隐状态chache进memory"""
  3. if mem_len is None or mem_len == 0:
  4. return None
  5. else:
  6. if reuse_len is not None and reuse_len > 0:
  7. # reuse的部分cache,curr_out从(128,...)变成(64,....)
  8. # 原因是生成数据时我们每次后移64,请参考第一部分代码
  9. curr_out = curr_out[:reuse_len]
  10. if prev_mem is None:
  11. new_mem = curr_out[-mem_len:]
  12. else:
  13. #之前的mem(96)和当前的输出(64)拼起来然后取后面mem_len(96)个
  14. new_mem = tf.concat([prev_mem, curr_out], 0)[-mem_len:]
  15. # cache的mem不参与梯度计算
  16. return tf.stop_gradient(new_mem)

two_stream_rel_attn函数

我们先看输入参数:

  • h (128, 8, 1024) 上一层的内容(context)隐状态
  • g (21, 8, 1204) 上一层的查询(query)隐状态,只需要计算Mask的哪些位置
  • r (352, 8, 1024) 相对位置编码,函数relative_positional_encoding的返回值
  • r_w_bias (16, 64)
  • r_r_bias (16, 64)
  • seg_mat (128, 224, 8, 2) 表示i(范围是0-127)和j(被attend to的,包括mem因此范围是0-223)是否在同一个segment里,1是True
  • r_s_bias (16, 64)
  • seg_embed (2, 16, 64) 表示两个Token处于相同或者不同Segment(只有两种可能)的embedding
  • attn_mask_h (128, 224, 8, 1) 这是内容stream的mask,attn_mask_h(i,j)表示i能否attend to j,1表示不能
  • attn_mask_g (128, 224, 8, 1) 这是查询stream的mask,attn_mask_h(i,j)表示i能否attend to j,1表示不能
  • target_mapping (21, 128, 8) 表示21个Mask的Token下标,使用one-hot编码(1 out of 128)的方式,注意如果Mask的不够21个,则padding的内容全是零(而不是有且仅有一个1)。
  • d_model 1024 隐状态大小
  • n_head 16 attention head个数
  • d_head 64 每个head的隐状态大小
  • dropout dropout
  • dropatt Attention的dropout
  • is_traning True,表示Pretraining
  • kernel_initializer 初始化类

完整的代码如下:

  1. def two_stream_rel_attn(h, g, r, mems, r_w_bias, r_r_bias, seg_mat, r_s_bias,
  2. seg_embed, attn_mask_h, attn_mask_g, target_mapping,
  3. d_model, n_head, d_head, dropout, dropatt, is_training,
  4. kernel_initializer, scope='rel_attn'):
  5. """基于相对位置编码的Two-stream attention"""
  6. # scale,参考《Transformer图解》
  7. scale = 1 / (d_head ** 0.5)
  8. with tf.variable_scope(scope, reuse=False):
  9. # 内容attention score
  10. if mems is not None and mems.shape.ndims > 1:
  11. # 把之前的mem加上得到\hat{h}
  12. # shape是(96+128=224, 8, 1024)
  13. cat = tf.concat([mems, h], 0)
  14. else:
  15. cat = h
  16. # 计算内容stream的attention head的key
  17. # 输入是(224, 8, 1024),使用key的变换矩阵后,输出是(224, 8, 16, 64)
  18. # head_projection的讲解在下一小节
  19. k_head_h = head_projection(
  20. cat, d_model, n_head, d_head, kernel_initializer, 'k')
  21. # 类似的的计算内容stream的value
  22. # 输入是(224, 8, 1024),输出是(224, 8, 16, 64)
  23. v_head_h = head_projection(
  24. cat, d_model, n_head, d_head, kernel_initializer, 'v')
  25. # 相对位置的key也做投影变换,因此输入的第一维表示位置差
  26. # 输入是(352, 8, 1024),输出是(352, 8, 16, 64)
  27. k_head_r = head_projection(
  28. r, d_model, n_head, d_head, kernel_initializer, 'r')
  29. ##### 计算内容stream的attention
  30. # 内容stream的query
  31. # query的范围是当前输入,因此输入是(128, 8, 1024)
  32. # 输出是(128, 8, 16, 64)
  33. q_head_h = head_projection(
  34. h, d_model, n_head, d_head, kernel_initializer, 'q')
  35. # 计算Attention的核心函数,下面详细介绍
  36. # 输出是attention score, shape是(128, 8, 16, 64)
  37. # 表示128个输入(8是batch)的隐状态,每个隐状态是16(个head)x64(head大小)
  38. attn_vec_h = rel_attn_core(
  39. q_head_h, k_head_h, v_head_h, k_head_r, seg_embed, seg_mat, r_w_bias,
  40. r_r_bias, r_s_bias, attn_mask_h, dropatt, is_training, scale)
  41. # 后处理,残差连接+LayerNorm,详见后文
  42. output_h = post_attention(h, attn_vec_h, d_model, n_head, d_head, dropout,
  43. is_training, kernel_initializer)
  44. with tf.variable_scope(scope, reuse=True):
  45. ##### 查询的stream
  46. # query向量,shape是(21, 8, 16, 64)
  47. # 只需要计算Mask的(21)
  48. q_head_g = head_projection(
  49. g, d_model, n_head, d_head, kernel_initializer, 'q')
  50. # 核心的attention运算
  51. if target_mapping is not None:
  52. # q_head_g是(21, 8, 16, 64) target_mapping是(21, 128, 8)
  53. # q_head_g变成(128, 8, 16, 64),也就是根据target_mapping把输入从21变成128
  54. # 当然21个的位置是有query head的,而128-21个位置的query都是0。
  55. # 这么做的原因是因为模型的定义里输入都是128。
  56. q_head_g = tf.einsum('mbnd,mlb->lbnd', q_head_g, target_mapping)
  57. # Attention计算,attn_vec_g是(128, 8, 16, 64),这和前面基本一样
  58. attn_vec_g = rel_attn_core(
  59. q_head_g, k_head_h, v_head_h, k_head_r, seg_embed, seg_mat, r_w_bias,
  60. r_r_bias, r_s_bias, attn_mask_g, dropatt, is_training, scale)
  61. # 但是我们需要的只是21个Mask的位置的输出,因此我们又用target_mapping变换回来
  62. # attn_vec_g是(128, 8, 16, 64) target_mapping是(21, 128, 8)
  63. # 最终的attn_vec_g是(21, 8, 16, 64)
  64. attn_vec_g = tf.einsum('lbnd,mlb->mbnd', attn_vec_g, target_mapping)
  65. else:
  66. attn_vec_g = rel_attn_core(
  67. q_head_g, k_head_h, v_head_h, k_head_r, seg_embed, seg_mat, r_w_bias,
  68. r_r_bias, r_s_bias, attn_mask_g, dropatt, is_training, scale)
  69. # 后处理,残差+layernorm,和前面content流的一样
  70. # 最终的output_g是(21, 8, 1024)
  71. output_g = post_attention(g, attn_vec_g, d_model, n_head, d_head, dropout,
  72. is_training, kernel_initializer)
  73. return output_h, output_g

head_projection函数

  1. def head_projection(h, d_model, n_head, d_head, kernel_initializer, name):
  2. # proj_weight的shape是(1024, 16, 64)
  3. proj_weight = tf.get_variable('{}/kernel'.format(name),
  4. [d_model, n_head, d_head], dtype=h.dtype,
  5. initializer=kernel_initializer)
  6. # h是(224, 8, 1024),proj_weight是(1024, 16, 64),head是(224, 8, 16, 64)
  7. head = tf.einsum('ibh,hnd->ibnd', h, proj_weight)
  8. return head

head_projection函数的作用是把输入的1024维的向量乘以proj_weight变成(16, 64)。为了实现上面的计算,我们可以使用reshape:

  1. 首先把proj_weight从(1024, 16, 64)->(1024, 1024(16x64))
  2. 然后把h从(224, 8, 1024) -> (224*8,1024)
  3. 然后h乘以proj_weight得到(224*8, 1024(16x64))
  4. 最后reshape成(224, 8, 16, 64)

而通过einsum可以一步到位,实现上面的计算过程(当然阅读起来稍微难以理解一点)。

我们可以这样解读’ibh,hnd->ibnd’:输入h的shape是(i/224, b/8, h/1024),proj_weight是(h/1024, n/16, d/64),输出的shape是(i/224,b/8,n/16,d/64)。并且:

抛开那些无关的i,b,n,d维度,它的核心就是把输入的1024/h使用一个矩阵(proj_weight)变换成(16,64)。请读者仔细理解einsum的含义,下文还会阅读很多tf.einsum函数,作者不会这样详细分解了,请确保理解后再往下阅读。

rel_attn_core函数

  1. def rel_attn_core(q_head, k_head_h, v_head_h, k_head_r, seg_embed, seg_mat,
  2. r_w_bias, r_r_bias, r_s_bias, attn_mask, dropatt, is_training,
  3. scale):
  4. """基于相对位置编码的Attention"""
  5. # 基于内容的attention score
  6. # q_head是(128, 8, 16, 64) k_head_h是(224, 8, 16, 64)
  7. # einsum是把最后的64x64求内积,得到ac是(128, 224, 8, 16)
  8. # 表示i(128)->j(224)的attention score
  9. ac = tf.einsum('ibnd,jbnd->ijbn', q_head + r_w_bias, k_head_h)
  10. # 基于位置的attention score
  11. # q_head是(128, 8, 16, 64) k_head_r是(352, 8, 16, 64)
  12. # 得到的bd是(128, 352, 8, 16)
  13. bd = tf.einsum('ibnd,jbnd->ijbn', q_head + r_r_bias, k_head_r)
  14. bd = rel_shift(bd, klen=tf.shape(ac)[1])
  15. # segment的embedding
  16. if seg_mat is None:
  17. ef = 0
  18. else:
  19. # q_head是(128, 8, 16, 64) seg_embed是(2, 16, 64)
  20. # ef是(128, 8, 16, 2),也就是把它们的最后一维做内积
  21. ef = tf.einsum('ibnd,snd->ibns', q_head + r_s_bias, seg_embed)
  22. # seg_mat是(128, 224, 8, 2) ef是(128, 8, 16, 2)
  23. # 最终的ef是(128, 224, 8, 16) 也是把最后一维做内积
  24. # ef(i,j)表示i attend to j时的segment embedding。
  25. ef = tf.einsum('ijbs,ibns->ijbn', seg_mat, ef)
  26. # ac+bd+ef得到最终的attention score
  27. attn_score = (ac + bd + ef) * scale
  28. if attn_mask is not None:
  29. # 回忆一下,attn_mask(i,j)为1表示attention mask,也就是i不能attend to j。
  30. # 下面的式子中如果attn_mask里为0的不变,为1的会减去一个很大的数,这样就变成很大的负数
  31. # 从而后面softmax的时候概率基本为0,从而实现Mask
  32. attn_score = attn_score - 1e30 * attn_mask
  33. # 把score变成概率
  34. # attn_prob是(128, 224, 8, 16)
  35. attn_prob = tf.nn.softmax(attn_score, 1)
  36. # 使用dropatt进行dropout
  37. attn_prob = tf.layers.dropout(attn_prob, dropatt, training=is_training)
  38. # 根据attn_prob和value向量计算最终的输出
  39. # attn_prob是(128, 224, 8, 16), v_head_h是(224, 8, 16, 64)
  40. # attn_vec是(128, 8, 16, 64),也就是把224个attend to的向量使用attn_prob加权求和
  41. attn_vec = tf.einsum('ijbn,jbnd->ibnd', attn_prob, v_head_h)
  42. return attn_vec

变量ac对应公式的(a)和(c),变量r_w_bias对应公式里的uu;而bd对应公式的(b)和(d),变量r_r_bias对应公式里的vv。请读者对照公式进行理解。而ef是相对Segment Embedding。最终把它们加起来就是Attention Score。

rel_shift函数

  1. def rel_shift(x, klen=-1):
  2. # x是(128, 352, 8, 16),klen=224
  3. x_size = tf.shape(x)
  4. # reshape成(352, 128, 8, 16)
  5. x = tf.reshape(x, [x_size[1], x_size[0], x_size[2], x_size[3]])
  6. # 第一维从下标1开始slice到最后,其余的都完全保留,
  7. # tf.slice函数的介绍在下面
  8. # x变成(351, 128, 8, 16)
  9. x = tf.slice(x, [1, 0, 0, 0], [-1, -1, -1, -1])
  10. # reshape成(128, 351, 8, 16)
  11. x = tf.reshape(x, [x_size[0], x_size[1] - 1, x_size[2], x_size[3]])
  12. # slice得到(128, 224, 8, 16)
  13. x = tf.slice(x, [0, 0, 0, 0], [-1, klen, -1, -1])
  14. return x

tf.slice的作用是从一个Tensor里截取(slice)一部分,它的主要参数是第二个和第三个,分别表示每一维开始的下标和每一维的长度,如果长度为-1,则表示一直截取从开始下标到最后所有的。下面是几个例子:

  1. t = tf.constant([[[1, 1, 1], [2, 2, 2]],
  2. [[3, 3, 3], [4, 4, 4]],
  3. [[5, 5, 5], [6, 6, 6]]])
  4. tf.slice(t, [1, 0, 0], [1, 1, 3]) # [[[3, 3, 3]]]
  5. tf.slice(t, [1, 0, 0], [1, 2, 3]) # [[[3, 3, 3],
  6. # [4, 4, 4]]]
  7. tf.slice(t, [1, 0, 0], [2, 1, 3]) # [[[3, 3, 3]],
  8. # [[5, 5, 5]]]

x是(128, 352, 8, 16),这个x是前面bd,它是relative_positional_encoding函数的输出经过经过head_projection得到的k_head_r和q_head计算得到的。relative_positional_encoding函数的输出是(352, 8, 1024),而第一维的128是tile(复制)出来的,因此都是相同的(包括batch/8的维度也是tile出来的)。

x(i,d,…)表示i(输入下标,0-127)的距离为d(0-351)的相对位置编码。但是我们实际需要的是x(i,j,…),j是实际的下标,因此需要把距离d变成真实的下标j(i-d),这就是这个函数的作用。注意:d为0表示最大的距离224(其实最大只能是223)。

如果读者没有办法理解其中的细节也可以暂时跳过,但是至少需要知道输出(128,224)的含义:(i,j)的含义是位置i attend to j的位置编码,x(1,4)的值和x(3,6)的值是相同的,因为它们的相对位置都是-3(1-3和4-6)。

post_attention

需要注意的地方都在注释里,请仔细阅读:

  1. def post_attention(h, attn_vec, d_model, n_head, d_head, dropout, is_training,
  2. kernel_initializer, residual=True):
  3. """attention的后处理"""
  4. # 把attention得到的向量(16x64)投影回d_model(1024)
  5. # proj_o是(1024, 16, 64)
  6. proj_o = tf.get_variable('o/kernel', [d_model, n_head, d_head],
  7. dtype=h.dtype, initializer=kernel_initializer)
  8. # attn_vec是(128, 8, 16, 64) proj_o是(1024, 16, 64)
  9. # attn_out是(128, 8, 1024)
  10. attn_out = tf.einsum('ibnd,hnd->ibh', attn_vec, proj_o)
  11. attn_out = tf.layers.dropout(attn_out, dropout, training=is_training)
  12. if residual:
  13. # 残差连接然后是layer norm
  14. # 输出大小不变,仍然是(128, 8, 1024)
  15. output = tf.contrib.layers.layer_norm(attn_out + h, begin_norm_axis=-1,
  16. scope='LayerNorm')
  17. else:
  18. output = tf.contrib.layers.layer_norm(attn_out, begin_norm_axis=-1,
  19. scope='LayerNorm')
  20. return output

第六段

这一段是Self-Attention之后的全连接层+LayerNorm。

  1. if inp_q is not None:
  2. output_g = positionwise_ffn(
  3. inp=output_g,
  4. d_model=d_model,
  5. d_inner=d_inner,
  6. dropout=dropout,
  7. kernel_initializer=initializer,
  8. activation_type=ff_activation,
  9. is_training=is_training)
  10. output_h = positionwise_ffn(
  11. inp=output_h,
  12. d_model=d_model,
  13. d_inner=d_inner,
  14. dropout=dropout,
  15. kernel_initializer=initializer,
  16. activation_type=ff_activation,
  17. is_training=is_training,
  18. reuse=reuse)

代码比较简单,就是调用positionwise_ffn函数,下面是positionwise_ffn的代码:

  1. def positionwise_ffn(inp, d_model, d_inner, dropout, kernel_initializer,
  2. activation_type='relu', scope='ff', is_training=True,
  3. reuse=None):
  4. if activation_type == 'relu':
  5. activation = tf.nn.relu
  6. elif activation_type == 'gelu':
  7. activation = gelu
  8. else:
  9. raise ValueError('Unsupported activation type {}'.format(activation_type))
  10. output = inp
  11. with tf.variable_scope(scope, reuse=reuse):
  12. # 第一个全连接层,输入output是(21,8,1024),输出output是(21,8,4096)
  13. # 激活函数是relu
  14. output = tf.layers.dense(output, d_inner, activation=activation,
  15. kernel_initializer=kernel_initializer,
  16. name='layer_1')
  17. output = tf.layers.dropout(output, dropout, training=is_training,
  18. name='drop_1')
  19. # 用一个线性变换(activation是None)把4096->1024
  20. # output为(21,8,1024)
  21. output = tf.layers.dense(output, d_model,
  22. kernel_initializer=kernel_initializer,
  23. name='layer_2')
  24. output = tf.layers.dropout(output, dropout, training=is_training,
  25. name='drop_2')
  26. # 残差连接和LayerNorm,最终的output还是(21, 8, 1024)
  27. output = tf.contrib.layers.layer_norm(output + inp, begin_norm_axis=-1,
  28. scope='LayerNorm')
  29. return output

第七段

  1. if inp_q is not None:
  2. # 因为是pretraining,所有返回query stream的结果
  3. output = tf.layers.dropout(output_g, dropout, training=is_training)
  4. else:
  5. output = tf.layers.dropout(output_h, dropout, training=is_training)
  6. return output, new_mems, lookup_table

这一段非常简单,只是返回结果。如果是pretraining,则返回查询stream的输出output_g(21, 8, 1024),否则返回内容stream的输出output_h(128, 8, 1024),返回之前会再做一个dropout,最终返回的是output, new_mems和lookingup_table(32000, 1024)。

返回two_stream_loss函数

终于把最复杂的transformer_xl函数分析完了,我们返回上一层回到XLNetModel的构造函数,再往上返回two_stream_loss函数:

  1. def two_stream_loss(FLAGS, features, labels, mems, is_training):
  2. .........................
  3. # 这是我们之前分析的"断点",我们接着
  4. xlnet_model = xlnet.XLNetModel(
  5. xlnet_config=xlnet_config,
  6. run_config=run_config,
  7. input_ids=inp_k,
  8. seg_ids=seg_id,
  9. input_mask=inp_mask,
  10. mems=mems,
  11. perm_mask=perm_mask,
  12. target_mapping=target_mapping,
  13. inp_q=inp_q)
  14. # 得到pretraining的输出,shape是(21, 8, 1024)
  15. output = xlnet_model.get_sequence_output()
  16. # 新的mem,key"mems"value是(96, 8, 1024)
  17. new_mems = {mem_name: xlnet_model.get_new_memory()}
  18. # lookup_table是(32000, 1024)
  19. lookup_table = xlnet_model.get_embedding_table()
  20. initializer = xlnet_model.get_initializer()
  21. with tf.variable_scope("model", reuse=tf.AUTO_REUSE):
  22. # pretraining的loss,详细参考下面的分析
  23. lm_loss = modeling.lm_loss(
  24. hidden=output,
  25. target=tgt,
  26. n_token=xlnet_config.n_token,
  27. d_model=xlnet_config.d_model,
  28. initializer=initializer,
  29. lookup_table=lookup_table,
  30. tie_weight=True,
  31. bi_data=run_config.bi_data,
  32. use_tpu=run_config.use_tpu)
  33. #### 监控的量
  34. monitor_dict = {}
  35. if FLAGS.use_bfloat16:
  36. tgt_mask = tf.cast(tgt_mask, tf.float32)
  37. lm_loss = tf.cast(lm_loss, tf.float32)
  38. # 所有的平均loss
  39. total_loss = tf.reduce_sum(lm_loss * tgt_mask) / tf.reduce_sum(tgt_mask)
  40. monitor_dict["total_loss"] = total_loss
  41. return total_loss, new_mems, monitor_dict

上面的代码注意就是调用modeling.lm_loss根据xlnet_model的输出计算loss。

lm_loss函数

  1. def lm_loss(hidden, target, n_token, d_model, initializer, lookup_table=None,
  2. tie_weight=False, bi_data=True, use_tpu=False):
  3. with tf.variable_scope('lm_loss'):
  4. if tie_weight:
  5. assert lookup_table is not None, \
  6. 'lookup_table cannot be None for tie_weight'
  7. softmax_w = lookup_table
  8. else:
  9. softmax_w = tf.get_variable('weight', [n_token, d_model],
  10. dtype=hidden.dtype, initializer=initializer)
  11. softmax_b = tf.get_variable('bias', [n_token], dtype=hidden.dtype,
  12. initializer=tf.zeros_initializer())
  13. # hidden (21, 8, 1024) softmax_w是(32000, 1024)
  14. # tf.einsum得到(21, 8, 32000),然后加上32000的bias,shape不变
  15. logits = tf.einsum('ibd,nd->ibn', hidden, softmax_w) + softmax_b
  16. if use_tpu:
  17. # TPU上稀疏Tensor的效率不高
  18. one_hot_target = tf.one_hot(target, n_token, dtype=logits.dtype)
  19. loss = -tf.reduce_sum(tf.nn.log_softmax(logits) * one_hot_target, -1)
  20. else:
  21. # 计算loss
  22. loss = tf.nn.sparse_softmax_cross_entropy_with_logits(labels=target,
  23. logits=logits)
  24. return loss

上面的代码比较简单,使用tf.einsum把隐状态(21, 8, 1024)变换成(21, 8, 32000)的logits,然后使用sparse_softmax_cross_entropy_with_logits计算交叉熵损失。不熟悉sparse_softmax_cross_entropy_with_logits的读者可以参考官方文档,也可以购买作者的《深度学习理论与实战:基础篇》的第六章,里面详细的介绍了Tensorflow的基础知识。

返回model_fn

  1. def model_fn(features, labels, mems, is_training):
  2. # 前面我们在这个地方进入
  3. total_loss, new_mems, monitor_dict = function_builder.get_loss(
  4. FLAGS, features, labels, mems, is_training)
  5. #### 检查模型的参数
  6. num_params = sum([np.prod(v.shape) for v in tf.trainable_variables()])
  7. tf.logging.info('#params: {}'.format(num_params))
  8. # GPU
  9. assert is_training
  10. # 得到所有可以训练的变量
  11. all_vars = tf.trainable_variables()
  12. # 计算梯度
  13. grads = tf.gradients(total_loss, all_vars)
  14. # 把梯度和变量组成pair
  15. grads_and_vars = list(zip(grads, all_vars))
  16. return total_loss, new_mems, grads_and_vars

返回train函数

  1. for i in range(FLAGS.num_core_per_host):
  2. reuse = True if i > 0 else None
  3. with tf.device(assign_to_gpu(i, ps_device)), \
  4. tf.variable_scope(tf.get_variable_scope(), reuse=reuse):
  5. # The mems for each tower is a dictionary
  6. mems_i = {}
  7. if FLAGS.mem_len:
  8. mems_i["mems"] = create_mems_tf(bsz_per_core)
  9. # 我们从这里进去,然后返回
  10. loss_i, new_mems_i, grads_and_vars_i = single_core_graph(
  11. is_training=True,
  12. features=examples[i],
  13. mems=mems_i)
  14. # 下面都是多GPU训练相关的,把多个GPU的结果放到一起,我们暂时忽略
  15. tower_mems.append(mems_i)
  16. tower_losses.append(loss_i)
  17. tower_new_mems.append(new_mems_i)
  18. tower_grads_and_vars.append(grads_and_vars_i)
  19. ## 多个GPU的loss平均,我们这里只有一个GPU,走else分支
  20. if len(tower_losses) > 1:
  21. loss = tf.add_n(tower_losses) / len(tower_losses)
  22. grads_and_vars = average_grads_and_vars(tower_grads_and_vars)
  23. else:
  24. loss = tower_losses[0]
  25. grads_and_vars = tower_grads_and_vars[0]
  26. ## 得到训练的operation
  27. train_op, learning_rate, gnorm = model_utils.get_train_op(FLAGS, None,
  28. grads_and_vars=grads_and_vars)
  29. global_step = tf.train.get_global_step()
  30. ##### 训练循环
  31. # 初始化mems
  32. tower_mems_np = []
  33. for i in range(FLAGS.num_core_per_host):
  34. mems_i_np = {}
  35. for key in tower_mems[i].keys():
  36. # 这个函数把返回一个list(长度为层数6),每一个元素都是0,shape是(96, 8, 1024)
  37. mems_i_np[key] = initialize_mems_np(bsz_per_core)
  38. tower_mems_np.append(mems_i_np)
  39. # Saver
  40. saver = tf.train.Saver()
  41. gpu_options = tf.GPUOptions(allow_growth=True)
  42. # 从checkpoit恢复模型参数,我们这里是从零开始Pretraining,因此没有任何可以恢复的
  43. # 后面Fine-tuning再介绍这个函数
  44. model_utils.init_from_checkpoint(FLAGS, global_vars=True)
  45. with tf.Session(config=tf.ConfigProto(allow_soft_placement=True,
  46. gpu_options=gpu_options)) as sess:
  47. # 初始化所有变量
  48. sess.run(tf.global_variables_initializer())
  49. # session.run时的返回值
  50. fetches = [loss, tower_new_mems, global_step, gnorm, learning_rate, train_op]
  51. total_loss, prev_step = 0., -1
  52. while True:
  53. feed_dict = {}
  54. # 需要把mems feed进去,它来自下面sess.run返回的tower_mems_np。
  55. for i in range(FLAGS.num_core_per_host):
  56. for key in tower_mems_np[i].keys():
  57. for m, m_np in zip(tower_mems[i][key], tower_mems_np[i][key]):
  58. feed_dict[m] = m_np
  59. # 进行训练
  60. fetched = sess.run(fetches, feed_dict=feed_dict)
  61. # 得到loss、新的mems(作为下一个的输入)和当前训练的step数
  62. loss_np, tower_mems_np, curr_step = fetched[:3]
  63. total_loss += loss_np
  64. if curr_step > 0 and curr_step % FLAGS.iterations == 0:
  65. curr_loss = total_loss / (curr_step - prev_step)
  66. tf.logging.info("[{}] | gnorm {:.2f} lr {:8.6f} "
  67. "| loss {:.2f} | pplx {:>7.2f}, bpc {:>7.4f}".format(
  68. curr_step, fetched[-3], fetched[-2],
  69. curr_loss, math.exp(curr_loss), curr_loss / math.log(2)))
  70. total_loss, prev_step = 0., curr_step
  71. if curr_step > 0 and curr_step % FLAGS.save_steps == 0:
  72. # 每隔FLAGS.save_steps(10,000)保存一下模型
  73. save_path = os.path.join(FLAGS.model_dir, "model.ckpt")
  74. saver.save(sess, save_path)
  75. tf.logging.info("Model saved in path: {}".format(save_path))
  76. if curr_step >= FLAGS.train_steps:
  77. break

get_train_op函数

  1. def get_train_op(FLAGS, total_loss, grads_and_vars=None):
  2. global_step = tf.train.get_or_create_global_step()
  3. # 线性的增加学习率,我们这里走else分支
  4. if FLAGS.warmup_steps > 0:
  5. warmup_lr = (tf.cast(global_step, tf.float32)
  6. / tf.cast(FLAGS.warmup_steps, tf.float32)
  7. * FLAGS.learning_rate)
  8. else:
  9. warmup_lr = 0.0
  10. # 学习率的decay
  11. if FLAGS.decay_method == "poly":
  12. # 多项式的学习率decay,我们这里不介绍,读者可以参考官方文档
  13. decay_lr = tf.train.polynomial_decay(
  14. FLAGS.learning_rate,
  15. global_step=global_step - FLAGS.warmup_steps,
  16. decay_steps=FLAGS.train_steps - FLAGS.warmup_steps,
  17. end_learning_rate=FLAGS.learning_rate * FLAGS.min_lr_ratio)
  18. elif FLAGS.decay_method == "cos":
  19. decay_lr = tf.train.cosine_decay(
  20. FLAGS.learning_rate,
  21. global_step=global_step - FLAGS.warmup_steps,
  22. decay_steps=FLAGS.train_steps - FLAGS.warmup_steps,
  23. alpha=FLAGS.min_lr_ratio)
  24. else:
  25. raise ValueError(FLAGS.decay_method)
  26. # 如果step< warmup_steps则使用warmup_lr,否则使用decay_lr
  27. learning_rate = tf.where(global_step < FLAGS.warmup_steps,
  28. warmup_lr, decay_lr)
  29. if FLAGS.weight_decay == 0:
  30. # 如果没有weight_decay,那么使用AdamOptimizer,我们走这个分支
  31. optimizer = tf.train.AdamOptimizer(
  32. learning_rate=learning_rate,
  33. epsilon=FLAGS.adam_epsilon)
  34. elif FLAGS.weight_decay > 0 and FLAGS.num_core_per_host == 1:
  35. optimizer = AdamWeightDecayOptimizer(
  36. learning_rate=learning_rate,
  37. epsilon=FLAGS.adam_epsilon,
  38. exclude_from_weight_decay=["LayerNorm", "layer_norm", "bias"],
  39. weight_decay_rate=FLAGS.weight_decay)
  40. else:
  41. raise ValueError("Do not support `weight_decay > 0` with multi-gpu "
  42. "training so far.")
  43. if FLAGS.use_tpu:
  44. optimizer = tf.contrib.tpu.CrossShardOptimizer(optimizer)
  45. if grads_and_vars is None:
  46. grads_and_vars = optimizer.compute_gradients(total_loss)
  47. gradients, variables = zip(*grads_and_vars)
  48. # 把梯度clip到最大绝对值为FLAGS.clip(0.25)
  49. clipped, gnorm = tf.clip_by_global_norm(gradients, FLAGS.clip)
  50. # 这个分支没走,这里跳过
  51. if getattr(FLAGS, "lr_layer_decay_rate", 1.0) != 1.0:
  52. n_layer = 0
  53. for i in range(len(clipped)):
  54. m = re.search(r"model/transformer/layer_(\d+?)/", variables[i].name)
  55. if not m: continue
  56. n_layer = max(n_layer, int(m.group(1)) + 1)
  57. for i in range(len(clipped)):
  58. for l in range(n_layer):
  59. if "model/transformer/layer_{}/".format(l) in variables[i].name:
  60. abs_rate = FLAGS.lr_layer_decay_rate ** (n_layer - 1 - l)
  61. clipped[i] *= abs_rate
  62. tf.logging.info("Apply mult {:.4f} to layer-{} grad of {}".format(
  63. abs_rate, l, variables[i].name))
  64. break
  65. # optimizer应用梯度的训练op
  66. train_op = optimizer.apply_gradients(
  67. zip(clipped, variables), global_step=global_step)
  68. # Manually increment `global_step` for AdamWeightDecayOptimizer
  69. if isinstance(optimizer, AdamWeightDecayOptimizer):
  70. new_global_step = global_step + 1
  71. train_op = tf.group(train_op, [global_step.assign(new_global_step)])
  72. return train_op, learning_rate, gnorm
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/小小林熬夜学编程/article/detail/337036
推荐阅读
相关标签
  

闽ICP备14008679号