赞
踩
一些写在前面的话:学习的笔记记录罢了
一个用来处理下述问题的深度学习框架
基于概率模型构建
基于短语的翻译系统可以根据短语序列考虑输入和输出
Seq2Seq ,使用 LSTM现代翻译系统:观测到整个输入后生成任意的输出序列
Seq2Seq:有两个RNN组成的端到端模型
读取输入序列到我们的 Seq2Seq 模型,生成一个固定维度的上下文向量C。
LSTM每个时间步读取一个输入单词,将一个任意长度序列压缩到一个单一固定大小的向量是很困难的,堆叠的 LSTM 组成,
反向处理输入序列?通过这样做,编码器看到的最后的信息(粗略地)对应于模型输出的开始信息
对最后一层的输出放到 softmax 函数中计算,并生成我们第一个输出单词。这个单词作为网络下一个时间步的输入,并且以这种方式解码句子comment t’appelles tu
的剩余部分。
Seq2Seq 模型在输入句子很长的情况下效果会变得很差,LSTM 在实际使用中有一系列的限制。
一个单词可以依赖它前面或者后面的单词。Seq2Seq 模型并没有考虑到这一点
双向 RNN 通过遍历序列的两个方向并连接所得到的输出
添加另一个神经元,但是以相反的方向向其放入输入,输入被输入到两个不同的LSTM层中,但是方向不同,隐藏状态被连接起来以得到最终的上下文向量。
当你听到句子 the ball is on the field
,你不会认为这 6 个单词都一样重要。你首先会注意到单词 ball
,on
和 field
,因为这些单词你是觉得最“重要”的。
单一“上下文向量”的缺点:输入有不同的重要程度
注意力机制:为解码器网络提供了在每个解码步骤查看整个输入序列的功能;解码器可以在任何时间点决定哪些输入单词是重要的。
附加注意力
而是根据单词的不同赋予不同的权重
输出不再是一个固定长度的中间语义,而是一个由不同长度向量构成的序列
Step 1: Generating the Encoder Hidden States
decoder hidden state are used to generate the Context vector.
隐藏层---》文本向量
Step2:Calculating the Alignment vector
利用这些权重,解码器决定每个时间步要关注的内容。
Step 3: Calculating the Context vector
Step 4: Decoding the output
Step 5: Training the dataset using Encoder-Decoder Model
Pass the input and initial hidden states through the Encoder which will return Encoder output sequence and Encoder Hidden state.
Step 6: Predictions
Attention Mechanism (floydhub.com)
基于注意力模型的主要优点是能够有效地翻译长句,注意力机制是一个聪明的方式来解决这个问题,并且现在很多实验也证实了确实如此。
仅有日语-英语的翻译数据和韩语-英语的翻译数据,Google 团队发现多语言 NMT 系统对这些数据进行训练后的实际上可以产生合理的日语-韩语翻译。
该模型实际上维持一个了 独立于所涉及的实际语言的输入/输出句子的内部表示 。
评估机器学习翻译的质量已经自成体系为一个研究领域,已经提出了许多评估的方法 TER, METEOR, MaxSim, SEPIA 和 RTE-MT 。我们将重点关注两个基准评估方法和 BLEU。
在 2002 年,IBM 的研究者提出了 Bilingual Evaluation Understudy(BLEU),时至今日,该方法的很多变体,是机器翻译中最可靠的评估方法之一。
BLEU 算法通过参考人工翻译来评估机器翻译的精确度分数。参考人工翻译被假定为是一个翻译的模型样例,然后我们使用 n-gram 匹配候选翻译与人工翻译之间的相似程度作为度量标注。考虑一个参考句子 A 和候选翻译 B:
BLEU 分数是查找在机器翻译中是否有 n-grams 也出现在参考翻译中。以下彩色的翻译是参考翻译和候选翻译之间共享的不同大小的 n-grams 的一些示例。
又:Sennrich 等人提出了一种通过将罕见和未知的单词作为一个 subword units 的序列来实现开放词汇翻译的方法。
Byte Pair Encoding 的压缩算法
混合词字模型来处理未知词
计算这些概率,每个 n-gram 的计数将与每个单词的频率进行比较,这个称为 n-gram 语言模型。
RNN 有以下优点:
但是 RNN 也有以下不足:
RNN可以应用在很多任务,例如:
偏见
泛读+精读很重要,一定要沉下心来阅读,英文,提升自身水平,清楚明白自己想要的是什么,现实点的目标。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。