当前位置:   article > 正文

【深度学习】用Transformer实现OCR字符识别!

ocr无线表格 transformer

作者:安晟、袁明坤,Datawhale成员

在CV领域中,transformer除了分类还能做什么?本文将采用一个单词识别任务数据集,讲解如何使用transformer实现一个简单的OCR文字识别任务,并从中体会transformer是如何应用到除分类以外更复杂的CV任务中的。全文分为四部分:

一、数据集简介与获取

二、数据分析与关系构建

三、如何将transformer引入OCR

四、训练框架代码讲解

注:本文围绕如何设计模型和训练架构来解决OCR任务,文章含完整实践,代码很长建议收藏。不熟悉transformer的小伙伴可以点击这里回顾。

整个文字识别任务中,主要包括以下几个文件:

- analysis_recognition_dataset.py (数据集分析脚本)

- ocr_by_transformer.py (OCR任务训练脚本)

- transformer.py (transformer模型文件)

- train_utils.py (训练相关辅助函数,loss、optimizer等)

其中 ocr_by_transformer.py 为主要的训练脚本,其依托 train_utils.py 和 transformer.py 两个文件构建 transformer 来完成字符识别模型的训练

一、数据集简介与获取

本文使用的数据集基于ICDAR2015 Incidental Scene Text 中的 Task 4.3: Word Recognition,这是一个著名的自然场景下文本识别数据集,本次用来进行单词识别任务,我们去掉了其中一些图片,来简化这个实验的难度,因此本文的数据集与原始数据集略有差别。

为了能够更好的进行数据共享和版本管控,我们选择在线调用数据集,将简化后的数据集存放在专门的数据共享平台,数据开源地址:         https://gas.graviti.cn/dataset/datawhale/ICDAR2015 ,有相关问题可以直接在数据集讨论区交流。

该数据集包含了众多自然场景图像中出现的文字区域,数据中训练集含有4326张图像,测试集含有1992张图像,他们都是从原始大图中依据文字区域的bounding box裁剪出来的,图像中的文字基本处于图片中心位置。

数据集中图像类似如下样式:

word_104.png, "Optical"
77c48538caa231e511b25ce30dc0e408.png

数据本身以图像展示,对应的标签存储在CLASSIFICATION中,后文代码中标签获取,将直接得到一个包含所有字符的列表,这也是为了方便标签易用性进行的存储选择。

下面简单介绍数据集的快速使用:

  • 本地下载安装 tensorbay

pip3 install tensorbay
  • 打开本文数据集链接:https://gas.graviti.cn/dataset/datawhale/ICDAR2015

  • 将数据集fork到自己账户下

  • 点击网页上方开发者工具 --> AccessKey --> 新建一个AccessKey --> 复制这个Key

 
 
  1. from tensorbay import GAS
  2. from tensorbay.dataset import Dataset
  3. # GAS凭证
  4. KEY = 'Accesskey-***************80a'  # 添加自己的AccessKey
  5. gas = GAS(KEY)
  6. # 获取数据集
  7. dataset = Dataset("ICDAR2015", gas)
  8. # dataset.enable_cache('./data')  # 开启本语句,选择将数据建立本地缓存
  9. # 训练集和验证集
  10. train_segment = dataset["train"]valid_segment = dataset['valid']
  11. # 数据及标签
  12. for data in train_segment:
  13.     # 图像数据
  14.     img = data.open()
  15.     # 图像标签
  16.     label = data.label.classification.category
  17.     break

通过以上代码获取的图像及标签形式如下:

imglabel

8a3a941581eac0cdf1fafda2bd245e1a.png

['C', 'A', 'U', 'T', 'I', 'O', 'N']

通过以上简单代码便可以快速获取图像数据及标签,但程序每次运行都会自动去平台下载数据,因此耗时较长,建议开启本地缓存,一次下载多次使用,当不再使用数据时便可以将数据删除。

二、数据分析与关系构建

开始实验前,我们先对数据进行简单分析,只有对数据的特性足够了解,才能够更好的搭建出baseline,在训练中少走弯路。

运行下面代码,即可一键完成对于数据集的简单分析:

python analysis_recognition_dataset.py

具体地,这个脚本所做的工作包括:对数据进行标签字符统计(有哪些字符、每个字符出现次数多少)、最长标签长度统计,图像尺寸分析等,并且构建字符标签的映射关系文件 lbl2id_map.txt

下面我们来一点点看代码:

注:本文代码开源地址:

https://github.com/datawhalechina/dive-into-cv-pytorch/tree/master/code/chapter06_transformer/6.2_recognition_by_transformer(online_dataset)

首先完成准备工作,导入需要的库,并设置好相关目录或文件的路径

  1. import os
  2. from PIL import Image
  3. import tqdm
  4. from tensorbay import GAS
  5. from tensorbay.dataset import Dataset
  6. # GAS凭证
  7. KEY = 'Accesskey-************************480a'  # 添加自己的AccessKey
  8. gas = GAS(KEY)
  9. # 数据集获取并本地缓存
  10. dataset = Dataset("ICDAR2015", gas)
  11. dataset.enable_cache('./data')  # 数据缓存地址
  12. # 获取训练集和验证集
  13. train_segment = dataset["train"]
  14. valid_segment = dataset['valid']
  15. # 中间文件存储路径,存储标签字符与其id的映射关系
  16. base_data_dir = './'
  17. lbl2id_map_path = os.path.join(base_data_dir, 'lbl2id_map.txt')

2.1 标签最长字符个数统计

首先统计数据集最长label中包含的字符数量,此处要将训练集和验证集中的最长标签都进行统计,进而得到最长标签所含字符。

  1. def statistics_max_len_label(segment):
  2.     """
  3.     统计标签中最长的label所包含的字符数
  4.     """
  5.     max_len = -1
  6.     for data in segment:
  7.         lbl_str = data.label.classification.category  # 获取标签
  8.         lbl_len = len(lbl_str)
  9.         max_len = max_len if max_len > lbl_len else lbl_len
  10.     return max_len
  11. train_max_label_len = statistics_max_len_label(train_segment)  # 训练集最长label
  12. valid_max_label_len = statistics_max_len_label(valid_segment)  # 验证集最长label
  13. max_label_len = max(train_max_label_len, valid_max_label_len)  # 全数据集最长label
  14. print(f"数据集中包含字符最多的label长度为{max_label_len}")

数据集中最长label含有21个字符,这将为后面transformer模型搭建时的时间步长度的设置提供参考。

2.2 标签所含字符统计

下面代码查看数据集中出现过的所有字符:

  1. def statistics_label_cnt(segment, lbl_cnt_map):
  2.     """
  3.     统计标签文件中label都包含哪些字符以及各自出现的次数
  4.     lbl_cnt_map : 记录标签中字符出现次数的字典
  5.     """
  6.     for data in segment:
  7.         lbl_str = data.label.classification.category  # 获取标签
  8.         for lbl in lbl_str:
  9.                 if lbl not in lbl_cnt_map.keys():
  10.                     lbl_cnt_map[lbl] = 1
  11.                 else:
  12.                     lbl_cnt_map[lbl] += 1
  13. lbl_cnt_map = dict()  # 用于存储字符出现次数的字典
  14. statistics_label_cnt(train_segment, lbl_cnt_map)  # 训练集中字符出现次数统计
  15. print("训练集中label中出现的字符:")
  16. print(lbl_cnt_map)
  17. statistics_label_cnt(valid_segment, lbl_cnt_map)  # 训练集和验证集中字符出现次数统计
  18. print("训练集+验证集label中出现的字符:")
  19. print(lbl_cnt_map)

输出结果为:

  1. 训练集中label中出现的字符:
  2. {'C'593'A'1189'U'319'T'896'I'861'O'965'N'785'D'383'W'179'M'367'E'1423'X'110'$'46'2'121'4'44'L'745'F'259'P'389'R'836'S'1164'a'843'v'123'e'1057'G'345"'"51'r'655'k'96's'557'i'651'c'318'V'158'H'391'3'50'.'95'"'8'-'68','19'Y'229't'563'y'161'B'332'u'293'x'27'n'605'g'171'o'659'l'408'd'258'b'88'p'197'K'163'J'72'5'80'0'203'1'186'h'299'!'51':'19'f'133'm'202'9'66'7'45'j'15'z'12'´'3'Q'19'Z'29'&'9' '50'8'47'/'24'#'16'w'97'?'5'6'40'['2']'2'É'1'q'3';'3'@'4'%'28'='1'('6')'5'+'1}
  3. 训练集+验证集label中出现的字符:
  4. {'C'893'A'1827'U'467'T'1315'I'1241'O'1440'N'1158'D'548'W'288'M'536'E'2215'X'181'$'57'2'141'4'53'L'1120'F'402'P'582'R'1262'S'1752'a'1200'v'169'e'1536'G'521"'"70'r'935'k'137's'793'i'924'c'442'V'224'H'593'3'69'.'132'"'8'-'87','25'Y'341't'829'y'231'B'469'u'415'x'38'n'880'g'260'o'955'l'555'd'368'b'129'p'317'K'253'J'100'5'105'0'258'1'231'h'417'!'65':'24'f'203'm'278'9'76'7'62'j'19'z'14'´'3'Q'28'Z'36'&'15' '82'8'58'/'29'#'24'w'136'?'7'6'46'['2']'2'É'2'q'3';'3'@'9'%'42'='1'('7')'5'+'2'é'1}

上方代码中,lbl_cnt_map 为字符出现次数的统计字典,后面还会用于建立字符及其id映射关系。

从数据集统计结果来看,测试集含有训练集没有出现过的字符,例如测试集中包含1个'é'未曾在训练集出现。这种情况数量不多,应该问题不大,所以此处未对数据集进行额外处理(但是有意识的进行这种训练集和测试集是否存在diff的检查是必要的)。

2.3 char和id的映射字典构建

在本文OCR任务中,需要对图片中的每个字符进行预测,为了达到这个目的,首先就需要建立一个字符与其id的映射关系,将文本信息转化为可供模型读取的数字信息,这一步类似NLP中建立语料库。

在构建映射关系时,除了记录所有标签文件中出现的字符外,还需要初始化三个特殊字符,分别用来代表一个句子起始符、句子终止符和填充(Padding)标识符(相关介绍戳这里)。后面dataset构建部分的讲解也还会再次提到。

脚本运行后,所有字符的映射关系将会保存在 lbl2id_map.txt文件中。

  1. # 构造label中 字符--id 之间的映射
  2. print("构造label中 字符--id 之间的映射:")
  3. lbl2id_map = dict()
  4. # 初始化三个特殊字符
  5. lbl2id_map['☯'] = 0    # padding标识符
  6. lbl2id_map['■'] = 1    # 句子起始符
  7. lbl2id_map['□'] = 2    # 句子结束符
  8. # 生成其余字符的id映射关系
  9. cur_id = 3
  10. for lbl in lbl_cnt_map.keys():
  11.     lbl2id_map[lbl] = cur_id
  12.     cur_id += 1
  13.     
  14. # 保存 字符--id 之间的映射 到txt文件
  15. with open(lbl2id_map_path, 'w', encoding='utf-8') as writer:  # 参数encoding是可选项,部分设备并未默认为utf-8
  16.     for lbl in lbl2id_map.keys():
  17.         cur_id = lbl2id_map[lbl]
  18.         print(lbl, cur_id)
  19.         line = lbl + '\t' + str(cur_id) + '\n'
  20.         writer.write(line)

构造出的 字符-id 之间的映射:

  1. ☯ 0
  2. ■ 1
  3. □ 2
  4. 3
  5. 4
  6. ...
  7. 85
  8. 86
  9. 87
  10. 88
  11. é 89

此外,analysis_recognition_dataset.py 文件中还包含一个建立关系映射字典的函数,可以通过读取含有映射关系txt的文件,构建出字符到id和id到字符的映射字典。这服务于后续transformer训练过程,以方便字符关系快速实现转换。

  1. def load_lbl2id_map(lbl2id_map_path):
  2.     """
  3.     读取 字符-id 映射关系记录的txt文件,并返回 lbl->id 和 id->lbl 映射字典
  4.     lbl2id_map_path : 字符-id 映射关系记录的txt文件路径
  5.     """
  6.     lbl2id_map = dict()
  7.     id2lbl_map = dict()
  8.     with open(lbl2id_map_path, 'r') as reader:
  9.         for line in reader:
  10.             items = line.rstrip().split('\t')
  11.             label = items[0]
  12.             cur_id = int(items[1])
  13.             lbl2id_map[label] = cur_id
  14.             id2lbl_map[cur_id] = label
  15.     return lbl2id_map, id2lbl_map

2.4 数据集图像尺寸分析

在进行图像分类检测等任务时,经常会查看图像的尺寸分布,进而确定合适的图像的预处理方式,例如在进行目标检测时会对图像尺寸和bounding box的尺寸进行统计,分析长宽比进而选择合适的图像裁剪策略和适当的初始anchor策略等。

因此这里通过分析图像宽度、高度和宽高比等信息来了解数据的特点,为后续实验策略制定提供参考。

  1. def read_gas_image(data):
  2.     with data.open() as fp:
  3.         image = Image.open(fp)
  4.     return image
  5. # 分析数据集图片尺寸
  6. print("分析数据集图片尺寸:")
  7. # 初始化参数
  8. min_h = 1e10
  9. min_w = 1e10
  10. max_h = -1
  11. max_w = -1
  12. min_ratio = 1e10
  13. max_ratio = 0
  14. # 遍历数据集计算尺寸信息
  15. for data in tqdm.tqdm(train_segment):
  16.     img = read_gas_image(data)  # 读取图片
  17.     w, h = img.size  # 提取图像宽高信息
  18.     ratio = w / h  # 宽高比
  19.     min_h = min_h if min_h <= h else h  # 最小图片高度
  20.     max_h = max_h if max_h >= h else h  # 最大图片高度
  21.     min_w = min_w if min_w <= w else w  # 最小图片宽度
  22.     max_w = max_w if max_w >= w else w  # 最大图片宽度
  23.     min_ratio = min_ratio if min_ratio <= ratio else ratio  # 最小宽高比
  24.     max_ratio = max_ratio if max_ratio >= ratio else ratio  # 最大宽高比
  25. # 输出信息
  26. print('min_h:', min_h)
  27. print('max_h:', max_h)
  28. print('min_w:', min_w)
  29. print('max_w:', max_w)
  30. print('min_ratio:', min_ratio)
  31. print('max_ratio:', max_ratio)

数据集图片尺寸相关情况统计结果如下:

  1. min_h: 9
  2. max_h: 295
  3. min_w: 16
  4. max_w: 628
  5. min_ratio: 0.6666666666666666
  6. max_ratio: 8.619047619047619

通过以上的结果,可看出图片多为卧倒的长条形,最大宽高比 > 8 可见存在极细长的图片。

以上便是对于数据集的若干简单分析,并且准备出了训练要用的char2id映射文件,下面就是重头戏了,来看看我们如何将transfomer引入,来完成OCR单词识别这样的CV任务。

三、如何将transformer引入OCR

很多算法本身并不难,难的是如何思考和定义问题,把它转化到已知的解决方案上去。因此在看代码之前,我们先要聊聊,为什么transformer可以解决OCR问题,动机是什么?

首先,我们知道,transformer被广泛应用在NLP领域中,可以解决类似机器翻译这样的sequence to sequence类的问题,如下图所示:

1ba5b02318ae109cd0fdbca68861900b.jpeg

而OCR识别任务,如下图所示,我们希望将下图识别为"Share",本质上也可以看作是一个sequence to sequence任务,只不过输入的序列信息是由图片形式表示的。

f9ccd4e43d8221fde0e624a17700402a.png

因此,如果从把OCR问题看作是一个sequence to sequence预测问题这个角度,使用transformer解决OCR问题貌似是一个非常自然和顺畅的想法,剩下的问题只是如何将图片的信息构造成transformer想要的,类似于 word embedding 形式的输入。

回到我们的任务,既然待预测的图片都是长条状的,文字基本都是水平排列,那么我们将特征图沿水平方向进行整合,得到的每一个embedding可以认为是图片纵向的某个切片的特征,将这样的特征序列交给transformer,利用其强大的attention能力来完成预测。

因此,基于以上分析,我们将模型框架的pipeline定义为下图所示的形式:

97a0f54ba229a135dca07682e65c858d.png

通过观察上图可以发现,整个pipeline和利用transformer训练机器翻译的流程是基本一致的,之间的差异主要是多了借助一个CNN网络作为backbone提取图像特征得到input embedding的过程。

关于构造transformer的输入embedding这部分的设计,是本文的重点,也是整个算法能够work的关键。后文会结合代码,对上面示意图中展示的相关细节进行展开讲解。

四、训练框架代码讲解

训练框架相关代码实现在 ocr_by_transformer.py 文件中

下面开始逐步讲解代码,主要有以下几个部分:

  • 构建dataset  → 图像预处理、label处理等;

  • 模型构建 → backbone + transformer;

  • 模型训练

  • 推理 → 贪心解码

下面一步步来看

4.1 准备工作

首先导入后面需要用到的库

  1. import os
  2. import time
  3. import copy
  4. from PIL import Image
  5. # 在线数据集相关包
  6. from tensorbay import GAS
  7. from tensorbay.dataset import Dataset
  8. # torch相关包
  9. import torch
  10. import torch.nn as nn
  11. from torch.autograd import Variable
  12. import torchvision.models as models
  13. import torchvision.transforms as transforms
  14. # 导入工具类包
  15. from analysis_recognition_dataset import load_lbl2id_map, statistics_max_len_label
  16. from transformer import *
  17. from train_utils import *

然后设置一些基础的参数

  1. device = torch.device('cuda')  # 'cpu'或者'cuda'
  2. nrof_epochs = 1500  # 迭代次数,1500,根据需求进行修正
  3. batch_size = 64     # 批量大小,64,根据需求进行修正
  4. model_save_path = './log/ex1_ocr_model.pth'

在线获取图像数据,并读取图像label中字符与其id的映射字典,后续Dataset创建需要使用。

  1. # GAS凭证
  2. KEY = 'Accesskey-fd26cc098604c68a99d3bf7f87cd480a'
  3. gas = GAS(KEY)
  4. # 在线获取数据集
  5. dataset_online = Dataset("ICDAR2015", gas)
  6. dataset_online.enable_cache('./data')  # 开启本地缓存
  7. # 获取训练集和验证集
  8. train_data_online = dataset_online["train"]
  9. valid_data_online = dataset_online['valid']
  10. # 读取label-id映射关系记录文件
  11. lbl2id_map_path = os.path.join('./''lbl2id_map.txt')
  12. lbl2id_map, id2lbl_map = load_lbl2id_map(lbl2id_map_path)
  13. # 统计数据集中出现的所有的label中包含字符最多的有多少字符,数据集构造gt(ground truth)信息需要用到
  14. train_max_label_len = statistics_max_len_label(train_data_online)
  15. valid_max_label_len = statistics_max_len_label(valid_data_online)
  16. # 数据集中字符数最多的一个case作为制作的gt的sequence_len
  17. sequence_len = max(train_max_label_len, valid_max_label_len)

4.2 Dataset构建

下面来介绍Dataset构建相关内容,首先思考下如何进行图片预处理比较合理。图片预处理方案

假设图片尺寸为 

经过网络后的特征图尺寸为 

基于之前对于数据集的分析,图片基本都是水平长条状的,图像内容是水平排列的字符组成的单词。那么图片空间上同一纵向切片的位置,基本只有一个字符,因此纵向分辨率不需要很大,那么取   即可;而横向的分辨率需要大一些,我们需要有不同的embedding来编码水平方向上不同字符的特征。

f9f1426ab9d916c580a86818d344f235.jpeg

这里,我们就用最经典的resnet18网络作为backbone,由于其下采样倍数为32,最后一层特征图channel数为512,那么:

那么输入图片的宽度如何确定呢?这里给出两种方案,如下图所示:

e192c013f283bfe5d254eb7a0416c425.jpeg

方法一:设定一个固定尺寸,将图像保持其宽高比进行resize,右侧空余区域进行padding;

方法二:直接将原始图像强制resize到一个预设的固定尺寸。

注:这里不妨先思考下,你觉得哪种方案比较好呢?

作者选择了方法一,因为图片的宽高比和图片中单词的字符数量是大致呈正比的,如果预处理时保持住原图片的宽高比,那么特征图上每一个像素对应原图上字符区域的范围就是基本稳定的,这样或许有更好的预测效果。

这里还有个细节,观察上图你会发现,每个宽:高=1:1的区域内,基本都分布着2-3个字符,因此我们实际操作时也没有严格的保持宽高比不变,而是将宽高比提升了3倍,即先将原始图片宽度拉长到原来的3倍,再保持宽高比,将高resize到32。

注:这里建议再次停下来思考下,刚刚这个细节又是为什么?

这样做的目的是让图片上每一个字符,都有至少一个特征图上的像素与之对应,而不是特征图宽维度上一个像素,同时编码了原图中的多个字符的信息,这样我认为会对transformer的预测带来不必要的困难(仅是个人观点,欢迎讨论)。

确定了resize方案, 具体设置为多少呢?结合前面我们对数据集做分析时的两个重要指标,数据集label中最长字符数为21,最长的宽高比8.6,我们将最终的宽高比设置为 24:1,因此汇总一下各个参数的设置:

相关代码实现:

  1. # ----------------
  2. # 图片预处理
  3. # ----------------
  4. # load image
  5. with img_data.open() as fp:
  6.     img = Image.open(fp).convert('RGB')
  7. # 对图片进行大致等比例的缩放
  8. # 将高缩放到32,宽大致等比例缩放,但要被32整除
  9. w, h = img.size
  10. ratio = round((w / h) * 3)   # 将宽拉长3倍,然后四舍五入
  11. if ratio == 0:
  12.     ratio = 1 
  13. if ratio > self.max_ratio:
  14.     ratio = self.max_ratio
  15. h_new = 32
  16. w_new = h_new * ratio
  17. img_resize = img.resize((w_new, h_new), Image.BILINEAR)
  18. # 对图片右半边进行padding,使得宽/高比例固定=self.max_ratio
  19. img_padd = Image.new('RGB', (32*self.max_ratio, 32), (0,0,0))
  20. img_padd.paste(img_resize, (00))

图像增广

图像增广并不是重点,这里我们除了上述的resize方案外,仅对图像进行常规的随机颜色变换和归一化操作。

完整代码

构建Dataset的完整代码如下:

  1. class Recognition_Dataset(object):
  2.     def __init__(self, segment, lbl2id_map, sequence_len, max_ratio, pad=0):        self.data = segment
  3.         self.lbl2id_map = lbl2id_map
  4.         self.pad = pad   # padding标识符的id,默认0
  5.         self.sequence_len = sequence_len    # 序列长度
  6.         self.max_ratio = max_ratio * 3      # 将宽拉长3
  7.         # 定义随机颜色变换
  8.         self.color_trans = transforms.ColorJitter(0.10.10.1)
  9.         # 定义 Normalize
  10.         self.trans_Normalize = transforms.Compose([
  11.             transforms.ToTensor(),
  12.             transforms.Normalize([0.485,0.456,0.406], [0.229,0.224,0.225]),
  13.         ])
  14.     def __getitem__(self, index):
  15.         ""
  16.         获取对应index的图像和ground truth label,并视情况进行数据增强
  17.         """
  18.         img_data = self.data[index]
  19.         lbl_str = img_data.label.classification.category  # 图像标签
  20.         # ----------------
  21.         # 图片预处理
  22.         # ----------------
  23.         # load image
  24.         with img_data.open() as fp:
  25.             img = Image.open(fp).convert('RGB')
  26.         # 对图片进行大致等比例的缩放
  27.         # 将高缩放到32,宽大致等比例缩放,但要被32整除
  28.         w, h = img.size
  29.         ratio = round((w / h) * 3)   # 将宽拉长3倍,然后四舍五入
  30.         if ratio == 0:
  31.             ratio = 1
  32.         if ratio > self.max_ratio:
  33.             ratio = self.max_ratio
  34.         h_new = 32
  35.         w_new = h_new * ratio
  36.         img_resize = img.resize((w_new, h_new), Image.BILINEAR)
  37.         # 对图片右半边进行padding,使得宽/高比例固定=self.max_ratio
  38.         img_padd = Image.new('RGB', (32*self.max_ratio, 32), (0,0,0))
  39.         img_padd.paste(img_resize, (00))
  40.         # 随机颜色变换
  41.         img_input = self.color_trans(img_padd)
  42.         # Normalize
  43.         img_input = self.trans_Normalize(img_input)
  44.         # ----------------
  45.         # label处理
  46.         # ----------------
  47.         # 构造encoder的mask
  48.         encode_mask = [1] * ratio + [0] * (self.max_ratio - ratio)
  49.         encode_mask = torch.tensor(encode_mask)
  50.         encode_mask = (encode_mask != 0).unsqueeze(0)
  51.         # 构造ground truth label
  52.         gt = []
  53.         gt.append(1)    # 先添加句子起始符
  54.         for lbl in lbl_str:
  55.             gt.append(self.lbl2id_map[lbl])
  56.         gt.append(2)
  57.         for i in range(len(lbl_str), self.sequence_len):   # 除去起始符终止符,lbl长度为sequence_len,剩下的padding
  58.             gt.append(0)
  59.         # 截断为预设的最大序列长度
  60.         gt = gt[:self.sequence_len]
  61.         # decoder的输入
  62.         decode_in = gt[:-1]
  63.         decode_in = torch.tensor(decode_in)
  64.         # decoder的输出
  65.         decode_out = gt[1:]
  66.         decode_out = torch.tensor(decode_out)
  67.         # decoder的mask 
  68.         decode_mask = self.make_std_mask(decode_in, self.pad)
  69.         # 有效tokens数
  70.         ntokens = (decode_out != self.pad).data.sum()
  71.         return img_input, encode_mask, decode_in, decode_out, decode_mask, ntokens
  72.     @staticmethod
  73.     def make_std_mask(tgt, pad):
  74.         """
  75.         Create a mask to hide padding and future words.
  76.         padd 和 future words 均在mask中用0表示
  77.         """
  78.         tgt_mask = (tgt != pad)
  79.         tgt_mask = tgt_mask & Variable(subsequent_mask(tgt.size(-1)).type_as(tgt_mask.data))
  80.         tgt_mask = tgt_mask.squeeze(0)   # subsequent返回值的shape是(1, N, N)
  81.         return tgt_mask
  82.     def __len__(self):
  83.         return len(self.data)

上面的代码中还涉及到几个和label处理相关的细节,属于Transformer训练相关的逻辑,这里再简单提一下:

encode_mask

由于我们对图像进行了尺寸调整,并根据需求对图像进行了padding,而padding的位置是没有包含有效信息的,为此需要根据padding比例构造相应encode_mask,让transformer在计算时忽略这部分无意义的区域。

label处理

本实验使用的预测标签与机器翻译模型训练时的标签基本一致,因此在处理方式中差异较小。

标签处理中,将label中字符转换成其对应id,并在句子开始添加起始符,句子最后添加终止符,并在不满足sequence_len长度时在剩余位置进行padding(0补位)。

decode_mask

一般的在decoder中我们会根据label的sequence_len生成一个上三角阵形式的mask,mask的每一行便可以控制当前time_step时,只允许decoder获取当前步时之前的字符信息,而禁止获取未来时刻的字符信息,这防止了模型训练时的作弊行为。

decode_mask经过一个特殊的函数 make_std_mask() 进行生成。

同时,decoder的label制作同样要考虑上对padding的部分进行mask,所以decode_mask在label被padding对应的位置处也应该进行写成False。

生成的decode_mask如下图所示:

c7285f96a3da394622443d8283cdc9f3.png

以上是构建Dataset的所有细节,进而我们可以构建出DataLoader供训练使用

  1. # 构造 dataloader
  2. max_ratio = 8    # 图片预处理时 宽/高的最大值,不超过就保比例resize,超过会强行压缩
  3. train_dataset = Recognition_Dataset(train_data_online, lbl2id_map, sequence_len, max_ratio, pad=0)
  4. valid_dataset = Recognition_Dataset(valid_data_online, lbl2id_map, sequence_len, max_ratio, pad=0)
  5. # loader size info:
  6. # --> img_input: [batch_size, c, h, w] --> [6433232*8*3]
  7. # --> encode_mask: [batch_size, h/32, w/32] --> [64124] 本文backbone采用的32倍下采样,所以除以32
  8. # --> decode_in: [bs, sequence_len-1] --> [6420]
  9. # --> decode_out: [bs, sequence_len-1] --> [6420]
  10. # --> decode_mask: [bs, sequence_len-1, sequence_len-1] --> [642020]
  11. # --> ntokens: [bs] --> [64]
  12. train_loader = torch.utils.data.DataLoader(train_dataset,
  13.                                         batch_size=batch_size,
  14.                                         shuffle=True,
  15.                                         num_workers=4)
  16. valid_loader = torch.utils.data.DataLoader(valid_dataset,
  17.                                         batch_size=batch_size,
  18.                                         shuffle=False,
  19.                                         num_workers=4)

4.3 模型构建

代码通过 make_ocr_modelOCR_EncoderDecoder 类完成模型结构搭建。

可以从 make_ocr_model 这个函数看起,该函数首先调用了pytorch中预训练的Resnet-18作为backbone以提取图像特征,此处也可以根据自己需要调整为其他的网络,但需要重点关注的是网络的下采样倍数,以及最后一层特征图的channel_num,相关模块的参数需要同步调整。之后调用了 OCR_EncoderDecoder 类完成transformer的搭建。最后对模型参数进行初始化。

OCR_EncoderDecoder 类中,该类相当于是一个transformer各基础组件的拼装线,包括 encoder 和 decoder 等,其初始参数是已存在的基本组件,其基本组件代码都在transformer.py文件中,本文将不在过多叙述。

这里再来回顾一下,图片经过backbone后,如何构造为Transformer的输入:

图片经过backbone后将输出一个维度为 [batch_size, 512, 1, 24] 的特征图,在不关注batch_size的前提下,每一张图像都会得到如下所示具有512个通道的1×24的特征图,如图中红色框标注所示,将不同通道相同位置的特征值拼接组成一个新的向量,并作为一个时间步的输入,此时变构造出了维度为 [batch_size, 24, 512] 的输入,满足Transformer的输入要求。

cc6d108ce8c8e2d36d9f46c0b1eac13e.jpeg

下面来看下完整的构造模型部分的代码:

  1. # 模型结构
  2. class OCR_EncoderDecoder(nn.Module):
  3.     """
  4.     A standard Encoder-Decoder architecture.
  5.     Base for this and many other models.
  6.     """
  7.     def __init__(self, encoder, decoder, src_embed, src_position, tgt_embed, generator):
  8.         super(OCR_EncoderDecoder, self).__init__()
  9.         self.encoder = encoder
  10.         self.decoder = decoder
  11.         self.src_embed = src_embed    # input embedding module
  12.         self.src_position = src_position
  13.         self.tgt_embed = tgt_embed    # ouput embedding module
  14.         self.generator = generator    # output generation module
  15.     def forward(self, src, tgt, src_mask, tgt_mask):
  16.         "Take in and process masked src and target sequences."
  17.         # src --> [bs, 332768]  [bs, c, h, w]
  18.         # src_mask --> [bs, 124]  [bs, h/32, w/32]
  19.         memory = self.encode(src, src_mask)
  20.         # memory --> [bs, 24512]
  21.         # tgt --> decode_in [bs, 20]  [bs, sequence_len-1]
  22.         # tgt_mask --> decode_mask [bs, 20]  [bs, sequence_len-1]
  23.         res = self.decode(memory, src_mask, tgt, tgt_mask)  # [bs, 20512]
  24.         return res
  25.     def encode(self, src, src_mask):
  26.         # feature extract
  27.         # src --> [bs, 332768]
  28.         src_embedds = self.src_embed(src)
  29.         # 此处使用的resnet18作为backbone 输出-->[batchsize, c, h, w] --> [bs, 512124]
  30.         # 将src_embedds由shape(bs, model_dim, 1, max_ratio) 处理为transformer期望的输入shape(bs, 时间步, model_dim)
  31.         # [bs, 512124] --> [bs, 24512]
  32.         src_embedds = src_embedds.squeeze(-2)
  33.         src_embedds = src_embedds.permute(021)
  34.         # position encode
  35.         src_embedds = self.src_position(src_embedds)  # [bs, 24512]
  36.         return self.encoder(src_embedds, src_mask)  # [bs, 24512]
  37.     def decode(self, memory, src_mask, tgt, tgt_mask):
  38.         target_embedds = self.tgt_embed(tgt)  # [bs, 20512]
  39.         return self.decoder(target_embedds, memory, src_mask, tgt_mask)
  40. def make_ocr_model(tgt_vocab, N=6, d_model=512, d_ff=2048, h=8, dropout=0.1):
  41.     """
  42.     构建模型
  43.     params:
  44.         tgt_vocab: 输出的词典大小
  45.         N: 编码器和解码器堆叠基础模块的个数
  46.         d_model: 模型中embedding的size,默认512
  47.         d_ff: FeedForward Layer层中embedding的size,默认2048
  48.         h: MultiHeadAttention中多头的个数,必须被d_model整除
  49.         dropout: dropout的比率
  50.     """
  51.     c = copy.deepcopy
  52.     # torch中预训练的resnet18作为特征提取网络, backbone
  53.     backbone = models.resnet18(pretrained=True)
  54.     backbone = nn.Sequential(*list(backbone.children())[:-2])    # 去掉最后两个层 (global average pooling and fc layer)
  55.     attn = MultiHeadedAttention(h, d_model)
  56.     ff = PositionwiseFeedForward(d_model, d_ff, dropout)
  57.     position = PositionalEncoding(d_model, dropout)
  58.  # 构建模型
  59.     model = OCR_EncoderDecoder(
  60.         Encoder(EncoderLayer(d_model, c(attn), c(ff), dropout), N),
  61.         Decoder(DecoderLayer(d_model, c(attn), c(attn), c(ff), dropout), N),
  62.         backbone,
  63.         c(position),
  64.         nn.Sequential(Embeddings(d_model, tgt_vocab), c(position)),
  65.         Generator(d_model, tgt_vocab))  # 此处的generator并没有在类内调用
  66.     # Initialize parameters with Glorot / fan_avg.
  67.     for child in model.children():
  68.         if child is backbone:
  69.             # 将backbone的权重设为不计算梯度
  70.             for param in child.parameters():
  71.                 param.requires_grad = False
  72.             # 预训练好的backbone不进行随机初始化,其余模块进行随机初始化
  73.             continue
  74.         for p in child.parameters():
  75.             if p.dim() > 1:
  76.                 nn.init.xavier_uniform_(p)
  77.     return model

通过上述的两个类,可以方便构建transformer模型:

  1. # build model
  2. # use transformer as ocr recognize model
  3. # 此处构建的ocr_model不含有Generator
  4. tgt_vocab = len(lbl2id_map.keys()) 
  5. d_model = 512
  6. ocr_model = make_ocr_model(tgt_vocab, N=5, d_model=d_model, d_ff=2048, h=8, dropout=0.1)
  7. ocr_model.to(device)

4.4 模型训练

模型训练之前,还需要定义模型评判准则、迭代优化器等。本实验在训练时,使用了标签平滑(label smoothing)、网络训练热身(warmup)等策略,以上策略的调用函数均在train_utils.py文件中,此处不涉及以上两种方法的原理及代码实现。

label smoothing可以将原始的硬标签转化为软标签,从而增加模型的容错率,提升模型泛化能力。代码中 LabelSmoothing() 函数实现了label smoothing,同时内部使用了相对熵函数计算了预测值与真实值之间的损失。

warmup策略能够有效控制模型训练过程中的优化器学习率,自动化的实现模型学习率由小增大再逐渐下降的控制,帮助模型在训练时更加稳定,实现损失的快速收敛。代码中 NoamOpt() 函数实现了warmup控制,采用的Adam优化器,实现学习率随迭代次数的自动调整。

  1. # train prepare
  2. criterion = LabelSmoothing(size=tgt_vocab, padding_idx=0, smoothing=0.0)  # label smoothing
  3. optimizer = torch.optim.Adam(ocr_model.parameters(), lr=0, betas=(0.90.98), eps=1e-9)
  4. model_opt = NoamOpt(d_model, 1400, optimizer)  # warmup

模型训练过程的代码如下所示,每训练10个epoch便进行一次验证,单个epoch的计算过程封装在 run_epoch() 函数中。

  1. # train & valid ...
  2. for epoch in range(nrof_epochs):
  3.     print(f"\nepoch {epoch}")
  4.  
  5.     print("train...")  # 训练
  6.     ocr_model.train()
  7.     loss_compute = SimpleLossCompute(ocr_model.generator, criterion, model_opt)
  8.     train_mean_loss = run_epoch(train_loader, ocr_model, loss_compute, device)
  9.     if epoch % 10 == 0:
  10.         print("valid...")  # 验证
  11.         ocr_model.eval()
  12.         valid_loss_compute = SimpleLossCompute(ocr_model.generator, criterion, None)
  13.         valid_mean_loss = run_epoch(valid_loader, ocr_model, valid_loss_compute, device)
  14.         print(f"valid loss: {valid_mean_loss}")
  15.         # save model
  16.         torch.save(ocr_model.state_dict(), './trained_model/ocr_model.pt')

SimpleLossCompute() 类实现了transformer输出结果的loss计算。在使用该类直接计算时,类需要接收(x, y, norm)三个参数,x为decoder输出的结果,y为标签数据,norm为loss的归一化系数,用batch中所有有效token数即可。由此可见,此处才正完成transformer所有网络的构建,实现数据计算流的流通。

run_epoch() 函数内部完成了一个epoch训练的所有工作,包括数据加载、模型推理、损失计算与方向传播,同时将训练过程信息进行打印。

  1. def run_epoch(data_loader, model, loss_compute, device=None):
  2.     "Standard Training and Logging Function"
  3.     start = time.time()
  4.     total_tokens = 0
  5.     total_loss = 0
  6.     tokens = 0
  7.     
  8.     for i, batch in enumerate(data_loader):
  9.         img_input, encode_mask, decode_in, decode_out, decode_mask, ntokens = batch
  10.         img_input = img_input.to(device)
  11.         encode_mask = encode_mask.to(device)
  12.         decode_in = decode_in.to(device)
  13.         decode_out = decode_out.to(device)
  14.         decode_mask = decode_mask.to(device)
  15.         ntokens = torch.sum(ntokens).to(device)
  16.         out = model.forward(img_input, decode_in, encode_mask, decode_mask)
  17.         # out --> [bs, 20512]  预测结果
  18.         # decode_out --> [bs, 20]  实际结果
  19.         # ntokens --> 标签中实际有效字符
  20.         loss = loss_compute(out, decode_out, ntokens)  # 损失计算
  21.         total_loss += loss
  22.         total_tokens += ntokens
  23.         tokens += ntokens
  24.         if i % 50 == 1:
  25.             elapsed = time.time() - start
  26.             print("Epoch Step: %d Loss: %f Tokens per Sec: %f" %
  27.                     (i, loss / ntokens, tokens / elapsed))
  28.             start = time.time()
  29.             tokens = 0
  30.     return total_loss / total_tokens
  31. class SimpleLossCompute:
  32.     "A simple loss compute and train function."
  33.     def __init__(self, generator, criterion, opt=None):
  34.         self.generator = generator
  35.         self.criterion = criterion
  36.         self.opt = opt
  37.         
  38.     def __call__(self, x, y, norm):
  39.         """
  40.         norm: loss的归一化系数,用batch中所有有效token数即可
  41.         """
  42.         # x --> out --> [bs, 20512]  预测结果
  43.         # y --> decode_out --> [bs, 20]  实际结果
  44.         # norm --> ntokens --> 标签中实际有效字符
  45.         x = self.generator(x)
  46.         # label smoothing需要对应维度变化
  47.         x_ = x.contiguous().view(-1, x.size(-1))  # [20bs, 512]
  48.         y_ = y.contiguous().view(-1)  # [20bs]
  49.         loss = self.criterion(x_, y_)
  50.         loss /= norm
  51.         loss.backward()
  52.         if self.opt is not None:
  53.             self.opt.step()
  54.             self.opt.optimizer.zero_grad()
  55.         #return loss.data[0] * norm 
  56.         return loss.item() * norm

4.5 贪心解码

方便起见,我们使用最简单的贪心解码直接进行OCR结果预测。因为模型每一次只会产生一个输出,我们选择输出的概率分布中的最高概率对应的字符为本次预测的结果,然后预测下一个字符,这就是所谓的贪心解码,见代码中 greedy_decode() 函数。

实验中分别将每一张图像作为模型的输入,逐张进行贪心解码统计正确率,并最终给出了训练集和验证集各自的预测准确率。

  1. # 训练结束,使用贪心的解码方式推理训练集和验证集,统计正确率
  2. ocr_model.eval()
  3. print("\n------------------------------------------------")
  4. print("greedy decode trainset")
  5. total_img_num = 0
  6. total_correct_num = 0
  7. for batch_idx, batch in enumerate(train_loader):
  8.     img_input, encode_mask, decode_in, decode_out, decode_mask, ntokens = batch
  9.     img_input = img_input.to(device)
  10.     encode_mask = encode_mask.to(device)
  11.  
  12.     # 获取单张图像信息
  13.     bs = img_input.shape[0]
  14.     for i in range(bs):
  15.         cur_img_input = img_input[i].unsqueeze(0)
  16.         cur_encode_mask = encode_mask[i].unsqueeze(0)
  17.         cur_decode_out = decode_out[i]
  18.   # 贪心解码
  19.         pred_result = greedy_decode(ocr_model, cur_img_input, cur_encode_mask, max_len=sequence_len, start_symbol=1, end_symbol=2)
  20.         pred_result = pred_result.cpu()
  21.   # 判断预测是否正确
  22.         is_correct = judge_is_correct(pred_result, cur_decode_out)
  23.         total_correct_num += is_correct
  24.         total_img_num += 1
  25.         if not is_correct:
  26.             # 预测错误的case进行打印
  27.             print("----")
  28.             print(cur_decode_out)
  29.             print(pred_result)
  30.         total_correct_rate = total_correct_num / total_img_num * 100
  31.         print(f"total correct rate of trainset: {total_correct_rate}%")
  32. # 与训练集解码代码相同
  33. print("\n------------------------------------------------")
  34. print("greedy decode validset")
  35. total_img_num = 0
  36. total_correct_num = 0
  37. for batch_idx, batch in enumerate(valid_loader):
  38.     img_input, encode_mask, decode_in, decode_out, decode_mask, ntokens = batch
  39.     img_input = img_input.to(device)
  40.     encode_mask = encode_mask.to(device)
  41.     bs = img_input.shape[0]
  42.     for i in range(bs):
  43.         cur_img_input = img_input[i].unsqueeze(0)
  44.         cur_encode_mask = encode_mask[i].unsqueeze(0)
  45.         cur_decode_out = decode_out[i]
  46.         pred_result = greedy_decode(ocr_model, cur_img_input, cur_encode_mask, max_len=sequence_len, start_symbol=1, end_symbol=2)
  47.         pred_result = pred_result.cpu()
  48.         is_correct = judge_is_correct(pred_result, cur_decode_out)
  49.         total_correct_num += is_correct
  50.         total_img_num += 1
  51.         if not is_correct:
  52.             # 预测错误的case进行打印
  53.             print("----")
  54.             print(cur_decode_out)
  55.             print(pred_result)
  56.         total_correct_rate = total_correct_num / total_img_num * 100
  57.         print(f"total correct rate of validset: {total_correct_rate}%")

greedy_decode() 函数实现。

  1. # greedy decode
  2. def greedy_decode(model, src, src_mask, max_len, start_symbol, end_symbol):
  3.     memory = model.encode(src, src_mask)
  4.     # ys代表目前已生成的序列,最初为仅包含一个起始符的序列,不断将预测结果追加到序列最后
  5.     ys = torch.ones(11).fill_(start_symbol).type_as(src.data).long()
  6.     for i in range(max_len-1):
  7.         out = model.decode(memory, src_mask,
  8.                            Variable(ys),
  9.                            Variable(subsequent_mask(ys.size(1)).type_as(src.data)))
  10.         prob = model.generator(out[:, -1])
  11.         _, next_word = torch.max(prob, dim = 1)
  12.         next_word = next_word.data[0]
  13.         next_word = torch.ones(11).type_as(src.data).fill_(next_word).long()
  14.         ys = torch.cat([ys, next_word], dim=1)
  15.         next_word = int(next_word)
  16.         if next_word == end_symbol:
  17.             break
  18.         #ys = torch.cat([ys, torch.ones(11).type_as(src.data).fill_(next_word)], dim=1)
  19.     ys = ys[01:]
  20.     return ys
  21. def judge_is_correct(pred, label):
  22.     # 判断模型预测结果和label是否一致
  23.     pred_len = pred.shape[0]
  24.     label = label[:pred_len]
  25.     is_correct = 1 if label.equal(pred) else 0
  26.     return is_correct

运行下面的命令即可一键开启训练:

python ocr_by_transformer.py

训练日志如下所示:

  1. epoch 0
  2. train...
  3. Epoch Step: 1 Loss: 5.142612 Tokens per Sec: 852.649109
  4. Epoch Step: 51 Loss: 3.064528 Tokens per Sec: 2709.471436
  5. valid...
  6. Epoch Step: 1 Loss: 3.018526 Tokens per Sec: 1413.900391
  7. valid loss: 2.7769546508789062
  8. epoch 1
  9. train...
  10. Epoch Step: 1 Loss: 3.440590 Tokens per Sec: 1303.567993
  11. Epoch Step: 51 Loss: 2.711708 Tokens per Sec: 2743.414307
  12. ...
  13. epoch 1499
  14. train...
  15. Epoch Step: 1 Loss: 0.005739 Tokens per Sec: 1232.602783
  16. Epoch Step: 51 Loss: 0.013249 Tokens per Sec: 2765.866211
  17. ------------------------------------------------
  18. greedy decode trainset
  19. ----
  20. tensor([17321819315030103010173241555555,  2,  0,
  21.          0,  0])
  22. tensor([173218193150301030101732415555555555,
  23.         5555])
  24. ----
  25. tensor([17321819315030101732415555,  2,  0,  0,  0,  0,
  26.          0,  0])
  27. tensor([173218193150301017324155555555,  2])
  28. total correct rate of trainset: 99.95376791493297%
  29. ------------------------------------------------
  30. greedy decode validset
  31. ----
  32. tensor([1011282725114745,  2,  0,  0,  0,  0,  0,  0,  0,  0,  0,
  33.          0,  0])
  34. tensor([10112827251162,  2])
  35. ...
  36. tensor([20122435,  2,  0,  0,  0,  0,  0,  0,  0,  0,  0,  0,  0,  0,  0,
  37.          0,  0])
  38. tensor([20122112222334,  2])
  39. total correct rate of validset: 92.72088353413655%

总结

以上便是本文的全部内容了,恭喜你阅读到了这里379e5d316b328f66422de4fc8cf1be0c.png

本文我们首先介绍了ICDAR2015中的一个单词识别任务数据集,然后对数据的特点进行了简单分析,并构建了识别用的字符映射关系表。之后,我们重点介绍了将transformer引入来解决OCR任务的动机与思路,并结合代码详细介绍了细节,最后我们大致过了一些训练相关的逻辑和代码。

这篇主要是帮助大家打开思路,了解transformer在CV中除了作为backbone以外的其他应用点,关于Tranformer模型本身的实现代码参考了The Annotated Transformer,关于如何应用到OCR部分,完全是结合作者个人理解实现的,不能保证一定能应用到更复杂的工程问题中。关于文中的任何细节,如果有任何疑问,欢迎联系我们一起讨论,如有错误,也恳请指出。

希望大家阅读后有所收获!

阅读原文可获取数据集,和作者交流

 
 
 
 

93d45aba52c83aae4e6f5de6c23c1245.jpeg

 
 
 
 
 
 
 
 
  1. 往期精彩回顾
  2. 适合初学者入门人工智能的路线及资料下载(图文+视频)机器学习入门系列下载机器学习及深度学习笔记等资料打印《统计学习方法》的代码复现专辑
  • 交流群

欢迎加入机器学习爱好者微信群一起和同行交流,目前有机器学习交流群、博士群、博士申报交流、CV、NLP等微信群,请扫描下面的微信号加群,备注:”昵称-学校/公司-研究方向“,例如:”张小明-浙大-CV“。请按照格式备注,否则不予通过。添加成功后会根据研究方向邀请进入相关微信群。请勿在群内发送广告,否则会请出群,谢谢理解~(也可以加入机器学习交流qq群772479961)

462cfd4df7ad793ba60d651d8e36e198.png

声明:本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:【wpsshop博客】
推荐阅读
相关标签
  

闽ICP备14008679号