赞
踩
随着深度学习越来越流行,工业生产不光在PC端应用场景丰富,在移动端也越来越凸显出深度学习的重要性及应用价值。由于嵌入式平台受存储、指令集限制,需要提供更小的网络模型,并且某些DSP平台不支持float指令。tensorflow提供TOCO转换工具能够自动生成量化为U8的TFLite文件。本文将介绍如何解析tflite的网络结构以及权重信息。
一、tflite文件格式
Tflite文件由tensorflow提供的TOCO工具生成的轻量级模型,存储格式是flatbuffer,它是google开源的一种二进制序列化格式,同功能的像protobuf。对flatbuffer可小结为三点。
1.内容分为vtable区和数据区,vtable区保存着变量的偏移值,数据区保存着变量值;
2.要解析变量a,是在vtable区组合一层层的offset偏移量计算出总偏移,然后以总偏移到数据区中定位从而获取变量a的值。
3.一个叫schema的文本文件定义了要进行序列化和反序列化的数据结构。
具体定义的结构可以参考tensorflow源码中的schema文件:https://github.com/tensorflow/tensorflow/blob/master/tensorflow/lite/schema/schema.fbs
二、tflite解析
由于工作需要,本文使用了google flatbuffer开源工具flatc,flatc可以实现tflite格式到jason文件的自动转换。
flatbuffer源码:https://github.com/google/flatbuffers
安装命令: cmake -G "Unix Makefiles" //生成MakeFile
make //生成flatc
make install //安裝flatc
安装完成后,从tensorflow源码中copy 结构文件schema.fbs到flatbuffer根目录,执行#./flatc -t schema.fbs -- mobilenet_v1_1.0_224_quant.tflite,生成对应的json文件。Json文件结构如下图所示:
operator_codes: 以列表的形式存储该网络结构用的layer种类;
subgraphs: 为每一层的具体信息具体包括:
1)tensors.包含input、weight、bias的shape信息、量化参数以及在buffer数据区的offset值;
2)inputs: 整个网络的输入对应的tensors索引;
3)outputs: 整个网络的输出对应的tensors索引;
4)operators:网络结构所需要的相关参数;
buffers: 存放weight、bias等权重信息。
三、网络结构及权重提取
使用python的json包可以很方便的读取tflite生成的json文件。关于解析过程有几点说明:
1.flatc转换的json文件不是标准的key-value格式,需要稍作转换给索引key加上双引号具体代码如下:
- # -*- coding: UTF-8 -*-
- import os
- pathIn='xxx.json'
- pathDst='xxx_new.json'
- f = open(pathIn) # 返回一个文件对象
- line = f.readline() # 调用文件的 readline()方法
- fout = open(pathDst,'w')
-
- while line:
- #print(line)
- #print(len(line))
- dstline='aaa'
- if line.find(':')!=-1:
- quoteIdx2=line.find(':')
- #print("line has :, and index =%d" %quoteIdx2)
- linenew=line[:quoteIdx2] + '"' + line[quoteIdx2:]
- quoteIdx1=linenew.rfind(' ',0, quoteIdx2)
- #print("quoteIdx1 %d" %quoteIdx1)
- dstline=linenew[:quoteIdx1+1] + '"' + linenew[quoteIdx1+1:]
- #print(dstline)
- fout.write(dstline+os.linesep)
- else:
- dstline=line
- fout.write(line)
- #print("No")
- #print dstline
-
- line = f.readline()
-
- f.close()
- fout.close()
2.由于量化后的bias为int32的类型,而flatc将bias数据按照uint8的格式进行了转换,这里需要对json文件的bias再转换回int32类型,相当于json中bias区域四个字节转换为一个int32。详细讨论参考tensorflow github链接:https://github.com/tensorflow/tensorflow/issues/22279
解析部分代码分为两个部分包括网络结构以及权重解析,方法相似。网络结构参数解析,部分代码如下:
- from __future__ import division
- import json
-
- def write_blob_info(p_file, inputs, input_shape):
- p_file.write(str(inputs) + ', ')
- p_file.write(str(3) + ', ')
- p_file.write(str(input_shape[3]) + ', ')
- p_file.write(str(input_shape[1]) + ', ')
- p_file.write(str(input_shape[2]) + ', ')
-
- with open("mobilenet_v1_1.0_224_quant.json",'r') as f:
- load_dict = json.load(f)
-
- param_file=open("mobilenet_v1_1.0_224_quant.proto",'w')
-
- tensors = load_dict["subgraphs"][0]["tensors"]
- operators = load_dict["subgraphs"][0]["operators"]
- inputs = load_dict["subgraphs"][0]["inputs"]
- input_shape = tensors[inputs[0]]["shape"]
-
- param_file.write(str(len(operators) + 1) + ',\n')
- write_blob_info(param_file, \
- inputs[0], \
- input_shape)
- param_file.write('\n')
-
- for layer in operators:
- layer_name = layer["builtin_options_type"]
- operators_inputs = layer["inputs"]
- input_len = len(operators_inputs)
- builtin_options = layer["builtin_options"]
-
- if layer_name == "Conv2DOptions": #conv_2d, depthwiseconv_2d
- input_shape = tensors[operators_inputs[0]]["shape"]
- kernel_shape = tensors[operators_inputs[1]]["shape"]
- bias_shape = tensors[operators_inputs[2]]["shape"]
- kernel_H = kernel_shape[1]
- kernel_W = kernel_shape[2]
- param_file.write(str(kernel_H) + ', ')
- param_file.write(str(kernel_W) + ', ')
- stride_H = builtin_options["stride_h"]
- stride_W = builtin_options["stride_w"]
- param_file.write(str(stride_H) + ', ')
- param_file.write(str(stride_W) + ', ')
- dilation_W = builtin_options["dilation_w_factor"]
- dilation_H = builtin_options["dilation_h_factor"]
- param_file.write(str(dilation_H) + ', ')
- param_file.write(str(dilation_W) + ', ')
- bias_term = 1
- if input_len < 3 or bias_shape[0] == 0:
- bias_term = 0
- param_file.write(str(bias_term) + ', ')
- bottom_zero_point = tensors[operators_inputs[0]]["quantization"]["zero_point"][0]
- param_file.write(str(bottom_zero_point) + ', ')
- write_blob_info(param_file, \
- operators_inputs[0], \
- input_shape)
- #output_blob
- operators_outputs = layer["outputs"]
- output_shape = tensors[operators_outputs[0]]["shape"]
- write_blob_info(param_file, \
- operators_outputs[0], \
- output_shape)
- param_file.write('\n')
(水平有限,如有问题及遗漏欢迎补充指出,互相学习。)
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。