赞
踩
在实际生活中,机器翻译是人工智能技术比较广泛的一个应用,在之前的深度学习过程中,我们知道,循环神经网络能将输入序列映射成等长的输出序列,但在机器翻译应用中,输入序列与输出序列的长度通常不一样。序列到序列(Sequence to Sequene, Seq2Seq)的映射框架,就是用来解决这一问题,它能将一个可变长序列映射到另一个可变长序列。本章实验将探索Seq2Seq基础模型在机器翻译中的应用,以及Attention注意力机制、Transformer模型对基础Seq2Seq模型的改进。
本章实验的主要目的是通过中英翻译实验,学员能深入地了解神经网络在NLP机器翻译领域的应用。通过案例代码的学习,重点理解seq2seq解码器-编码器框架、attention注意力机制、transformer架构。
翻译任务在日常生活应用广泛,如手机中有各种翻译软件,可以满足人们交流、阅读的需求。本实验基于Seq2Seq编码器-解码器框架,结合GRU单元实现英文转中文的翻译任务,框架示意图如下:
GRU(门递归单元)是一种递归神经网络算法,就像LSTM(长短期存储器)一样。它是由Kyunghyun Cho、Bart van Merrienboer等在2014年的文章“使用RNN编码器-解码器学习短语表示用于统计机器翻译”中提出的。本文提出了一种新的神经网络模型RNN Encoder-Decoder&#x
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。