赞
踩
TFlite(TensorFlow Lite)是为了将深度学习模型部署在移动端和嵌入式设备的工具包,训练好的模型通过转化、部署和优化可以提升运算速度、减少内存和显存。简单说就是为了能在App上使用TF模型所做的转换。
TFlite的设计旨在各种设备上高效运行DL模型,高效的原因在于存储模型使用了FlatBuffer格式。
TensorFlow Lite 提供了转换 TensorFlow 模型,并在移动端(mobile)、嵌入式(embeded)和物联网(IoT)设备上运行 TensorFlow 模型所需的所有工具。
推理(Inference) 是通过模型(model)运行数据(data)以获得预测(predictions)的过程。这个过程需要模型(model)、解释器(interpreter)和输入数据(input data)。
TFLite解释器是一个库,会接收模型文件,执行它对输入数据定义的运算,并提供对输出的访问。
该解释器(interpreter)适用于多个平台,提供了一个简单的 API,用于从 Java、Swift、Objective-C、C++ 和 Python 运行 TensorFlow Lite 模型。
有些设备为机器学习运算提供了硬件加速。例如,GPU 能够比 CPU 更快地执行浮点矩阵运算。
这种速度提升可能会非常可观。例如,当使用 GPU 加速时,MobileNet v1 图像分类模型在 Pixel 3 手机上的运行速度能够提高 5.5 倍。
TFLite 解释器可以配置委托,以利用不同设备上的硬件加速。GPU 委托允许解释器在设备的 GPU 上运行适当的运算。
TFLite 提供了优化模型大小和性能(performance)的工具,通常对准确性影响甚微。优化模型可能需要稍微复杂的训练、转换或集成。
模型优化的目标是在给定设备上达到性能、模型大小和准确率的理想平衡。
通过降低模型中数值和运算符的精度,量化可以减小模型的大小和推理所需的时间。
TensorFlow Lite 转换器让量化 TensorFlow 模型变得简单。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。