赞
踩
开始基础:具备基础的编程能力,了解机器学习的基本概念,但是没有NLP领域的实践经历。
目的/目标:理解NLP的逻辑和原理,掌握文本分类/情感分析及相关的实践能力,能运用在实际问题的解决中。
目标:学习NLP的基本概念,理解NLP工程实践的过程,并动手操作,依葫芦画瓢。
特点:大量输入、消化吸收,间接经验为主。
使用机器学习模型,计算机只能处理数值信息,计算机语言是0和1。
用机器学习的方法处理自然语言,首先就需要将我们所使用的自然语言转换成计算机可以处理的数值信息。我们将数据分类为具有Categorical Features和Numerical Features两类,例如性别中的“男”、“女”具有Categorical Features,而年龄如25具有Numerical Features。因此,我们在处理数据时,需要将Categorical Features的数据映射成Numerical Features类别。
举例,将国籍信息转为数值向量。
- 建立一个字典,将国籍映射为整数indices(从1开始计数,保留0用来表示缺失数据)
美国——1
中国——2
印度——3
……
但是以上这样编码会造成一个问题,美国+中国 = 1+2 =3 那不就等于印度了?因此这样的编码是不合理的,两个国家之间运算不能等于另外一个国家。可见,不能用标量来表示Categorical Features信息,因为求和之后会没有意义。因此我们需要跟进一步。- 做one-hot encoding独热编码,用一个197维的向量来表示一个国家。
那么自然语言处理中,如何处理文本信息,将其数值化呢?
目标:将文本(自然语言)映射成字符串(数值)
Tokenization:把文本变成单词列表。(在此单词是最小的编码单元)
举例:
一段文本“…To be or not to be, It is a question…"
其实经过独热编码后的文本已经转换成计算机可以处理的数值向量了,但是一门语言的词汇量是很巨大的,比如英文如今的总词汇量已突破100万个。庞大的词汇量就导致我们在构建词典将单词映射为数值向量时,维度过高,虽不至于有100万维,但也维度惊人,带来难以承受的计算量。为解决词向量维度过高的问题,我们采用词嵌入Word Embedding的方法。
电影评论:用户对电影进行打分(10分制)以及评价
任务:通过用户的电影评论文本,来判断评价是正面还是负面
数据:现成的50k条数据-下载链接
数据库介绍:用于情感二分类的影评数据,标记好的训练集和测试集各25k条,共50k条数据。也保有未标记的数据,详情见README文件。下载后如下:
【在实际问题的解决过程中,通常需要我们自己去收集整理数据,这部分的工作量也不小。比如这个网站的电影评论,就需要你通过爬虫获得,并进行数据清洗和标注。但新手阶段刚上手,有现成的数据可以省时省力,学习目标更聚焦。】
(1/)Text to Sequence
在Word Embedding 和输入机器学习模型之前,要先将文本转成Sequence。在此,我们首先理解文本转序列的四个步骤(Tokenization, Build Dictionary, One-hot Encoding, Align Sequence),然后通过Keras框架来实现。
Text processing in Keras
实验环境设置:
概括:通过os.path.join和os.listdir读取文件形成评论列表。
在做自然语言处理要将文本序列化,比如用Keras框架文本处理中的Tonkenizer模块,
tokenizer.fit_on_texts(texts_train) # 基于训练数据建立的字典
在此输入的参数类型需要是一个文本列表。首先看一下下载到本地数据集的文件结构:
可见,每一条评论都存放在一个txt文件中。因此我们需要将训练集train中的所有评论数据都读取成一个文本列表texts_train。那么如何用os模块来实现呢?这里主要用到了os模块中的两个方法(最终实现的代码附后)。
OS module in Python provides functions for interacting with the operating system. OS comes under Python’s standard utility modules. This module provides a portable way of using operating system dependent functionality. os.path module is sub-module of OS module in Python used for common pathname manipulation.
最终实现的代码:
我是怎么使用的?有什么共性的经验?
我首先是发现使用Keras框架的Tokenizer,知道它要实现的功能,这是我需要的,它可以帮我实现这个事情,接着我需要了解Tokenizer的输入和输出,输出是我想要的,但是它的输入有啥要求呢?于是查阅Tokenizer的文档,看示例,原来是需要一个文本序列。
接下来,就是我如何将我已经有的本地数据集文件读取成Tokenizer需要的输入参数的形式。于是我搜索,”本地aclimdb数据集的加载“,想知道别人是如何读取这个数据集进行使用的,发现可以采用os模块,因为最直观。并且发现他们主要是采用os模块的两个方法,os.path.join和os.listdir。最后我通过两种途径来理解学习并实现了我的目标,一是跟着别人分享的代码,一小部分地运行看看,属于探索,有个直观的感受。二是找专业/官方的文档,对这两个函数以及os模块的介绍,进行学习。
跟进一步总结。原理-框架-函数-参数-数据
理解NLP处理的思想原理
了解可以用来处理这一问题的工具,从最高层次往下,比如框架、模块、方法/函数、参数。
从函数的输入和输出入手,最基本的是对数据结构的处理,读取和存写。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。