当前位置:   article > 正文

【每周一文】Natural Language Processing (almost) From Scratch

natural language processing (almost) from scratch

概述

本文介绍了一个统一的神经网络架构用于解决自然语言处理各种的各种任务,主要是序列标注任务,包括词性标注(POS)、词语组块分析(Chunking)、命名实体识别(NER)以及语义角色标注(SRL)等。本文主要介绍如何构建这个统一的神经网络以及如何运用一些技巧去提高效果,结论是不需要特殊构建特征工程就可以得到State-of-art结果。

统一标识

为方面后续介绍,提前介绍各类标识。
NN:神经网络
前向神经网络:fθ(.)=fLθ(fL1θ(...f1θ(.)...))fθ(.)=fLθ(fL1θ(...f1θ(.)...))
矩阵A中的值:[A]i,j
矩阵A中的列组合成的向量:<script type="math/tex" id="MathJax-Element-7">_i^{d_win}</script>表示第i列附件的d列组合而成的向量,[Adwini]T=([A]1,idwin/2...[A]d1,idwin/2,...,[A]1,i+dwin/2...[A]d1,i+dwin/2)

即d个列向量按照从前到后拼接成一个列向量。
向量x中的某个元素 [x]i
一个向量集合:x1,x2,...,xT表示为[x]T1

神经网络构建

词向量构建

将一个词表示为一个向量,即表示为连续空间中的一个点,而不是最原始的ont-hot表示。
1. 每一个词表示为一个向量存储在表中供查询,lookup table(LW),对于每个词向量为LTW(w)=<W>1w即大表中的第w列。其中WRdwrd|D|dD
2. 对于一个输入序列可以表示一个矩阵 LTW([w]T1)=(<W>1w1 ... <W>1wT)
3. 对于任何离散型特征可以进行扩展,如果每个词有多个离散特征,则每一个

声明:本文内容由网友自发贡献,转载请注明出处:【wpsshop博客】
推荐阅读
相关标签
  

闽ICP备14008679号