当前位置:   article > 正文

TensorFlow部署:使用FastAPI部署TF模型_fastapi部署tensorflow模型

fastapi部署tensorflow模型

概述

本文详细介绍了如何使用 FastAPI 部署 TensorFlow 模型。它涉及设置 Tensorflow FastAPI 项目、开发用于模型推理的 API 端点、处理请求和响应格式、增强性能和可扩展性、测试和监控已部署的模型,以及将模型置于部署前的最后阶段。本文的结论中提供了该方法的摘要。

介绍

在当今的 Web 开发世界中,将机器学习模型部署为 API 端点变得越来越重要。这使得应用程序能够利用机器学习的力量进行实时预测以及与其他系统的集成。FastAPI 是一个现代 Python Web 框架,为将 TensorFlow 模型部署为 API 端点提供了高效且简单的解决方案。

无论您是 Web 开发人员还是机器学习专家,本文都将为您提供使用 FastAPI 部署 TensorFlow 模型的有用提示和分步教程。让我们研究一下 TensorFlow FastAPI 在将机器学习模型部署为 API 端点时的强大协同作用。

什么是 FastAPI?

FastAPI 是一个用于创建 Python API 的现代且快速的 Web 框架。其出色的速度、易用性和强大的功能使其在 Web 开发人员中非常受欢迎。FastAPI 具有卓越的性能和可扩展性,因为它基于ASGI(异步服务器网关接口)标准,这使其能够异步处理请求。

![fastapi]

FastAPI支持各种数据格式,包括JSON、表单数据和多部分文件,使其能够灵活地处理不同类型的请求。它提供自动数据验证、序列化和反序列化,减少 API 开发中通常所需的样板代码量。

准备 TensorFlow 模型以进行部署

在部署 TensorFlow Fastapi 模型之前,必须按照以下步骤准备部署:

训练和优化模型:使用 TensorFlow 的 API 来训练和优化您的模型。这涉及定义模型架构、选择合适的损失函数和优化器以及微调超参数。在代表性数据集上训练模型,直到达到令人满意的性能和准确性。

  1. import tensorflow as tf
  2. from sklearn.datasets import load_iris
  3. from sklearn.model_selection import train_test_split
  4. # Step 1: Load and Preprocess the Iris Dataset
  5. iris_data = load_iris()
  6. features = iris_data.data
  7. labels = iris_data.target
  8. X_train, X_test, y_train, y_test = train_test_split(features, labels, test_size=0.2, random_state=42)
  9. model.compile(optimizer='adam', loss='sparse_categorical_crossentropy', metrics=['accuracy'])
  10. model.fit(X_train, y_train, epochs=10)

保存训练模型: 使用tf.saved_model.save()函数将模型保存到磁盘。这将创建一个包含模型架构、变量和资产的目录。

  1. # Save the trained model
  2. tf.saved_model.save(model, '/content/save')
'
运行

转换模型(可选):根据部署场景,您可能需要将模型转换为更优化的格式。例如,如果您计划在移动或边缘设备上部署模型,则可以使用 TensorFlow Lite 将 SavedModel 转换为 TensorFlow Lite 模型。转换过程可能涉及量化或其他优化,以便在资源受限的设备上获得更好的性能。

测试保存的模型:使用tf.saved_model.load()函数 加载保存的模型,并对示例数据运行推理以验证模型是否产生预期结果。此步骤有助于在部署之前发现保存的模型的任何问题。

  1. # Step 3: Test the Saved Model
  2. loaded_model = tf.saved_model.load(r'/content/save')
  3. # Run inference on sample data to verify the model
  4. sample_input = tf.constant(X_test[:1], dtype=tf.float32)
  5. output = loaded_model(sample_input)
  6. # Print the predicted class probabilities
  7. print(output)
'
运行

输出:

  1. tf.Tensor ([ [0.9199518 0.050503190 0.02954495] , shape =(1,3) dtype=float32)

设置 FastAPI 项目

创建新的项目目录:首先为 FastAPI 项目创建一个新目录。在您的系统上选择合适的位置。

安装 FastAPI 和其他依赖项:使用 pip 安装 FastAPI 和其他所需的包:

  1. pip install fastapi uvicorn

创建 FastAPI 应用程序文件:在项目目录中创建一个新的 Python 文件,例如 main.py。该文件将包含 FastAPI 应用程序代码。

编写 FastAPI 应用程序代码:在文本编辑器中打开 main.py 文件,然后编写 FastAPI 应用程序的代码。首先导入必要的模块:

  1. from fastapi import FastAPI
  2. app = FastAPI()
  3. @app.get("/")
  4. def read_root():
  5. return {"message": "Welcome to the application!"}

运行 FastAPI 应用程序:通过在项目目录中执行以下命令,使用 Uvicorn 启动 FastAPI 应用程序:

uvicorn main:app --reload

构建用于模型推理的 API 端点

使用 Pydantic 的 BaseModel,我们定义了InputData 类来捕获张量流 fastapi 模型的输入数据的预期格式。使用tf.keras.models.load_model,我们加载已经训练好的 TensorFlow 模型。API 端点/predict的 POST 请求已定义,并且需要 InputData 类格式的 JSON 数据。加载的模型用于在接收到请求的输入特征并将其转换为 numpy 数组后进行推理。然后响应包含预测值。

请注意,在运行此代码之前,您可能需要安装所需的依赖项,例如tensorflow和fastapi。

main.py

  1. from fastapi import FastAPI
  2. from pydantic import BaseModel
  3. from fastapi.responses import JSONResponse
  4. import tensorflow as tf
  5. import numpy as np
  6. app = FastAPI()
  7. # Request model for input data
  8. class InputData(BaseModel):
  9. sepal_length: float
  10. sepal_width: float
  11. petal_length: float
  12. petal_width: float
  13. # Load the trained TensorFlow model
  14. loaded_model = tf.keras.models.load_model('saved_model/iris_model')
  15. # API endpoint for model inference
  16. @app.post("/predict")
  17. def predict(input_data: InputData):
  18. # Convert input features to a numpy array
  19. features = np.array([
  20. [input_data.sepal_length, input_data.sepal_width, input_data.petal_length, input_data.petal_width]
  21. ])
  22. # Perform model inference
  23. predictions = loaded_model.predict(features)
  24. predicted_class = np.argmax(predictions, axis=1)[0]
  25. # Map predicted class index to class label
  26. class_labels = ["Setosa", "Versicolor", "Virginica"]
  27. predicted_label = class_labels[predicted_class]
  28. # Convert predicted class to Python integer
  29. predicted_class = int(predicted_class)
  30. # Create the response JSON
  31. response_data = {"predicted_class": predicted_class, "predicted_label": predicted_label}
  32. return JSONResponse(content=response_data)

处理请求和响应格式

构建 Tensorflow FastAPI 应用程序时,处理不同的请求和响应格式对于与客户端的互操作性至关重要。FastAPI 提供对各种格式的内置支持,包括JSON、表单数据和多部分文件

API 端点 /predict 已经适当地处理各种请求和响应类型。计划将输入数据作为请求正文中的 JSON 对象发送,并使用 Tensorflow FastAPI 中的 JSONResponse 类将响应作为 JSON 对象返回。

请求格式:

  1. 使用 @app.post("/predict") 装饰器将端点定义为 POST 请求。
  2. 输入数据作为 JSON 对象在请求正文中接收。
  3. 输入数据根据 InputData 模型进行验证,确保所需字段(sepal_width、sepal_length、petal_length、petal_width)存在并且具有正确的数据类型。
  4. FastAPI 自动将请求正文 JSON 转换为 InputData 模型的实例。

响应格式:

  1. 使用加载的 TensorFlow 模型和输入数据执行 TensorFlow FastAPI 模型推理。
  2. 预测的类索引是使用np.argmax(predictions, axis=1)[0]获得的。
  3. 使用 class_labels 列表将预测的类索引映射到相应的类标签。
  4. 预测的类别索引将转换为 Python 整数。
  5. 使用预测的类和标签创建响应 JSON 对象。
  6. 使用 JSONResponse 类返回响应,该类设置适当的内容类型并返回 JSON 对象作为响应正文。

下面提到的代码将向指定的 URL 发送 POST 请求,并在请求正文中输入 JSON 数据。响应内容将打印到控制台。确保您的本地服务器正在运行并且可通过http://127.0.0.1:8000/predict访问,以使此代码正常工作。

request.py

  1. import requests
  2. import json
  3. url = "http://127.0.0.1:8000/predict"
  4. headers = {"Content-Type": "application/json"}
  5. input_data = {
  6. "sepal_length": 5.1,
  7. "sepal_width": 3.5,
  8. "petal_length": 1.4,
  9. "petal_width": 0.2
  10. }
  11. response = requests.post(url, headers=headers, json=input_data)
  12. print(response.content)

![request]

性能优化和可扩展性

在构建模型推理 API 时,性能优化和可扩展性是重要的考虑因素。以下是一些提高性能和可扩展性的方法:

模型优化:

优化您的 Tensorflow fastapi 模型以减少推理时间和内存使用量。模型量化、剪枝和模型压缩等技术可以帮助实现这一目标。

批量处理:

不要对每个请求进行单独的预测,而是将多个请求一起批处理并并行处理它们。这减少了开销并提高了效率,特别是在处理多个并发请求时。

异步处理: 要同时处理多个请求,请使用异步编程技术。通过同时处理更多请求,可以提高服务器的吞吐量和响应能力。

Optimize.py

  1. from fastapi import FastAPI
  2. from pydantic import BaseModel
  3. from fastapi.responses import JSONResponse
  4. import tensorflow as tf
  5. import numpy as np
  6. from concurrent.futures import ThreadPoolExecutor
  7. from functools import partial
  8. from typing import List
  9. import asyncio
  10. app = FastAPI()
  11. # Request model for input data
  12. class InputData(BaseModel):
  13. sepal_length: float
  14. sepal_width: float
  15. petal_length: float
  16. petal_width: float
  17. # Load the trained TensorFlow model
  18. loaded_model = tf.keras.models.load_model('saved_model/iris_model')
  19. # Batch Processing and Asynchronous Execution
  20. executor = ThreadPoolExecutor()
  21. @app.post("/predict-batch")
  22. async def predict_batch(input_data: List[InputData]):
  23. # Convert input features to a numpy array
  24. features = np.array([
  25. [data.sepal_length, data.sepal_width, data.petal_length, data.petal_width]
  26. for data in input_data
  27. ])
  28. # Perform model inference asynchronously
  29. loop = asyncio.get_running_loop()
  30. predictions = await loop.run_in_executor(executor, partial(loaded_model.predict, features))
  31. # Map predicted class indices to class labels
  32. class_labels = ["Setosa", "Versicolor", "Virginica"]
  33. predicted_labels = [class_labels[np.argmax(prediction)] for prediction in predictions]
  34. # Convert predicted classes to Python integers
  35. predicted_classes = [int(np.argmax(prediction)) for prediction in predictions]
  36. # Create the response JSON
  37. response_data = [
  38. {"predicted_class": predicted_class, "predicted_label": predicted_label}
  39. for predicted_class, predicted_label in zip(predicted_classes, predicted_labels)
  40. ]
  41. return JSONResponse(content=response_data)
  42. if __name__ == "__main__":
  43. uvicorn.run(app, host="0.0.0.0", port=8000)

request.py

  1. import requests
  2. import json
  3. url = "http://127.0.0.1:8000/predict-batch"
  4. headers = {"Content-Type": "application/json"}
  5. input_data = [
  6. {
  7. "sepal_length": 5.1,
  8. "sepal_width": 3.5,
  9. "petal_length": 1.4,
  10. "petal_width": 0.2
  11. },
  12. {
  13. "sepal_length": 6.4,
  14. "sepal_width": 2.8,
  15. "petal_length": 5.6,
  16. "petal_width": 2.2
  17. },
  18. # Add more input data objects as needed
  19. ]
  20. response = requests.post(url, headers=headers, json=input_data)
  21. print(response.content)

测试和监控已部署的模型

测试和监控已部署的模型对于确保其性能、可靠性和准确性至关重要。您可以按照以下步骤来测试和监控已部署的模型:

单元测试:编写单元测试来验证代码各个组件的功能,例如数据预处理、模型推理和响应处理。使用 pytest 或 unittest 等测试框架创建测试用例并运行它们来验证代码的行为。

集成测试:执行集成测试以检查应用程序不同组件之间的交互,例如 API 端点、数据序列化和模型服务。测试各种场景,包括有效和无效的输入数据,以确保您的应用程序正确处理它们。

基准测试:通过运行基准测试来评估其推理速度和资源利用率,从而衡量 Tensorflow FastAPI 模型的性能。这有助于识别任何瓶颈或需要优化的领域。ab (Apache Benchmark) 或 wrk 等工具可用于模拟多个并发请求并测量响应时间。

  1. import requests
  2. import json
  3. import time
  4. # Function to send test requests to the deployed model
  5. def test_model(endpoint, input_data):
  6. headers = {"Content-Type": "application/json"}
  7. response = requests.post(endpoint, headers=headers, json=input_data)
  8. return response.json()
  9. # Test your model with sample input data
  10. input_data = {
  11. "sepal_length": 5.1,
  12. "sepal_width": 3.5,
  13. "petal_length": 1.4,
  14. "petal_width": 0.2
  15. }
  16. endpoint = "http://127.0.0.1:8000/predict"
  17. # Test the model and measure response time
  18. start_time = time.time()
  19. response = test_model(endpoint, input_data)
  20. end_time = time.time()
  21. # Print the response and response time
  22. print("Response:", response)
  23. print("Response Time:", end_time - start_time, "seconds")
  24. # Perform load testing to measure performance under high load
  25. num_requests = 1000
  26. start_time = time.time()
  27. for _ in range(num_requests):
  28. response = test_model(endpoint, input_data)
  29. end_time = time.time()
  30. total_time = end_time - start_time
  31. average_response_time = total_time / num_requests
  32. # Print load testing results
  33. print("Total Requests:", num_requests)
  34. print("Total Time:", total_time, "seconds")
  35. print("Average Response Time:", average_response_time, "seconds")

我们有一个test_model函数,它将 POST 请求发送到已部署模型的端点并以 JSON 形式返回响应。我们使用此函数通过测量单个请求的响应时间来测试模型的性能,并执行负载测试以模拟高请求负载。

该代码还演示了如何通过定期测试模型并记录相关指标来监控模型。

结论

  1. FastAPI 是一个用于构建 API 的强大框架,提供高性能和可扩展性。
  2. 在构建用于 TensorFlow fastapi 模型推理的 API 时,正确处理请求和响应格式非常重要。
  3. 将经过训练的 TensorFlow fastapi 模型加载到内存中可以在 API 请求期间进行高效的模型推理。
  4. 测试已部署的模型并监控其性能对于确保可靠性至关重要。
声明:本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:【wpsshop博客】
推荐阅读
相关标签
  

闽ICP备14008679号