赞
踩
个人博客导航页(点击右侧链接即可打开个人博客):大牛带你入门技术栈
文字识别是AI的一个重要应用场景,文字识别过程一般由图像输入、预处理、文本检测、文本识别、结果输出等环节组成。
其中,文本检测、文本识别是最核心的环节。文本检测方面,在前面的文章中已介绍过了多种基于深度学习的方法,可针对各种场景实现对文字的检测,详见以下文章:
【AI实战】手把手教你文字识别(检测篇:MSER、CTPN、SegLink、EAST等方法)
【AI实战】手把手教你文字识别(检测篇:AdvancedEAST、PixelLink方法)
而本文主要就是介绍在“文本识别”方面的实战方法,只要掌握了这些方法,那么跟前面介绍的文本检测方法结合起来,就可以轻松应对各种文字识别的任务了。话不多说,马上来学习“文本识别”的方法。
文字识别可根据待识别的文字特点采用不同的识别方法,一般分为定长文字、不定长文字两大类别。
下面按照定长文字、不定长文字分别介绍识别方法。
一、定长文字识别
定长文字的识别相对简单,应用场景也比较局限,最典型的场景就是验证码的识别了。由于字符数量是已知的、固定的,因此,网络结构比较简单,一般构建3层卷积层,2层全连接层便能满足“定长文字”的识别。
具体方法在之前介绍验证码识别的文章中已详细介绍,在此不再赘述。详见文章:
二、不定长文字识别
不定长文字在现实中大量存在,例如印刷文字、广告牌文字等,由于字符数量不固定、不可预知,因此,识别的难度也较大,这也是目前研究文字识别的主要方向。下面介绍不定长文字识别的常用方法:LSTM+CTC、CRNN、chinsesocr。
1、LSTM+CTC 方法
(1)什么是LSTM
为了实现对不定长文字的识别,就需要有一种能力更强的模型,该模型具有一定的记忆能力,能够按时序依次处理任意长度的信息,这种模型就是“循环神经网络”(Recurrent Neural Networks,简称RNN)。
LSTM(Long Short Term Memory,长短期记忆网络)是一种特殊结构的RNN(循环神经网络),用于解决RNN的长期依赖问题,也即随着输入RNN网络的信息的时间间隔不断增大,普通RNN就会出现“梯度消失”或“梯度爆炸”的现象,这就是RNN的长期依赖问题,而引入LSTM即可以解决这个问题。LSTM单元由输入门(Input Gate)、遗忘门(Forget Gate)和输出门(Output Gate)组成,具体的技术原理的工作过程详见之前的文章(文章:白话循环神经网络(RNN)),LSTM的结构如下图所示。
(2)什么是CTC
CTC(Connectionist Temporal Classifier,联接时间分类器),主要用于解决输入特征与输出标签的对齐问题。例如下图,由于文字的不同间隔或变形等问题,导致同个文字有不同的表现形式,但实际上都是同一个文字。在识别时会将输入图像分块后再去识别,得出每块属于某个字符的概率(无法识别的标记为特殊字符”-”),如下图:
由于字符变形等原因,导致对输入图像分块识别时,相邻块可能会识别为同个结果,字符重复出现。因此,通过CTC来解决对齐问题,模型训练后,对结果中去掉间隔字符、去掉重复字符(如果同个字符连续出现,则表示只有1个字符,如果中间有间隔字符,则表示该字符出现多次),如下图所示
(3)LSTM+CTC实现:常量定义
定义一些常量,在模型训练和预测中使用,定义如下:
- # 数据集,可根据需要增加英文或其它字符
- DIGITS = ['0', '1', '2', '3', '4', '5', '6', '7', '8', '9']
-
- # 分类数量
- num_classes = len(DIGITS) + 1 # 数据集字符数+特殊标识符
-
- # 图片大小,32 x 256
- OUTPUT_SHAPE = (32, 256)
-
- # 学习率
- INITIAL_LEARNING_RATE = 1e-3
- DECAY_STEPS = 5000
- REPORT_STEPS = 100
- LEARNING_RATE_DECAY_FACTOR = 0.9
- MOMENTUM = 0.9
-
- # LSTM网络层次
- num_hidden = 128
- num_layers = 2
-
- # 训练轮次、批量大小
- num_epochs = 50000
- BATCHES = 10
- BATCH_SIZE = 32
- TRAIN_SIZE = BATCHES * BATCH_SIZE
-
- # 数据集目录、模型目录
- data_dir = '/tmp/lstm_ctc_data/'
- model_dir = '/tmp/lstm_ctc_model/'
(4)LSTM+CTC实现:随机生成不定长图片数据
为了训练和测试LSTM+CTC识别模型,先要准备好基础数据,可根据需要准备好已标注的文本图片集。在这里,为了方便训练和测试模型,随机生成10000张不定长的图片数据集。通过使用Pillow生成图片和绘上文字,并对图片随机叠加椒盐噪声,以更加贴近现实场景。核心代码如下:
- # 生成椒盐噪声
- def img_salt_pepper_noise(src,percetage):
- NoiseImg=src
- NoiseNum=int(percetage*src.shape[0]*src.shape[1])
- for i in range(NoiseNum):
- randX=random.randint(0,src.shape[0]-1)
- randY=random.randint(0,src.shape[1]-1)
- if random.randint(0,1)==0:
- NoiseImg[randX,randY]=0
- else:
- NoiseImg[randX,randY]=255
- return NoiseImg
-
- # 随机生成不定长图片集
- def gen_text(cnt):
- # 设置文字字体和大小
- font_path = '/data/work/tensorflow/fonts/arial.ttf'
- font_size = 30
- font=ImageFont.truetype(font_path,font_size)
-
- for i in range(cnt):
- # 随机生成1到10位的不定长数字
- rnd = random.randint(1, 10)
- text = ''
- for j in range(rnd):
- text = text + DIGITS[random.randint(0, len(DIGITS) - 1)]
-
- # 生成图片并绘上文字
- img=Image.new("RGB",(256,32))
- draw=ImageDraw.Draw(img)
- draw.text((1,1),text,font=font,fill='white')
- img=np.array(img)
-
- # 随机叠加椒盐噪声并保存图像
- img = img_salt_pepper_noise(img, float(random.randint(1,10)/100.0))
- cv2.imwrite(data_dir + text + '_' + str(i+1) + '.jpg',img)
随机生成的不定长数据效果如下:
执行 gen_text(10000) 后生成的图片集如下,文件名由序号和文字标签组成:
(5)LSTM+CTC实现:标签向量化(稀疏矩阵)
由于文字是不定长的,因此,如果读取图片并获取标签,然后将标签存放在一个紧密矩阵中进行向量化,那将会出现大量的零元素,很浪费空间。因此,使用稀疏矩阵对标签进行向量化。所谓“稀疏矩阵”就是矩阵中的零元素远远多于非零元素,采用这种方式存储可有效节约空间。
稀疏矩阵有3个属性,分别是:
例如读取了以下图片和相应的标签,那么存储为稀疏矩阵的结果如下:
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。