当前位置:   article > 正文

对本地部署的ChatGLM模型进行API调用_本地部署模型api调用

本地部署模型api调用

ChatGLM作为一个小参数模型,给予了我们在本地部署LLM的条件,接下来我将展示如何使用python对本地部署的ChatGLM模型进行API调用

对于如何部署本地ChatGLM模型我们可以访问本地化部署大语言模型 ChatGLM

接下来我首先分享api调用的测试代码:

  1. import time
  2. import requests
  3. # 测试GPU运行是否成功
  4. def test_function_1():
  5. import torch
  6. print(torch.cuda.is_available())
  7. # 测试成功
  8. # 测试api相应是否无误
  9. def test_function_2():
  10. # 发送POST请求
  11. url = "http://localhost:8000" # API的地址
  12. data = {
  13. "prompt": "What is your name?",
  14. "history": [], # 历史对话,如果有的话,这里初始化为一个空列表
  15. "max_length": 2048, # 最大生成长度
  16. "top_p": 0.7, # Top-p采样参数
  17. "temperature": 0.95 # 温度参数
  18. }
  19. response = requests.post(url, json=data)
  20. # 解析响应
  21. if response.status_code == 200:
  22. answer = response.json()
  23. print("Response:", answer["response"])
  24. print("History:", answer["history"])
  25. print("Status:", answer["status"])
  26. print("Time:", answer["time"])
  27. else:
  28. print("Request failed:", response.text)
  29. if __name__ == '__main__':
  30. # test_function_1()
  31. time_start = time.time()
  32. test_function_2()
  33. time_end=time.time()
  34. print("测试时间"+str(time_end-time_start))
  • test_function_1():测试python与CUDA能否运行,如果为False,需要去pytorch官网下载电脑显卡驱动对应的pytorch,高显卡驱动是可以向下兼容
  • test_function_2():测试python的request请求是否被正确响应

在这里就遇到问题了(电脑的防火墙使request请求无法响应),搜索相关资料后找到了解决办法:

我们需要确保以下几点:

  1. 确保服务器正在指定的地址(0.0.0.0)和端口(8000)上运行,并且没有出现问题。
  2. 检查防火墙设置,确保允许从你的客户端连接到服务器的地址和端口。
  3. 确保服务器端代码没有错误,并且正在正确地侦听指定的地址和端口。

发现问题出现在2上,接下来提供解决方法:

在 Windows 上,通过以下步骤检查和配置防火墙设置:

  1. 打开 Windows Defender 防火墙设置:

    • 在 Windows 搜索框中输入“防火墙”,然后选择“Windows Defender 防火墙”。
  2. 配置入站规则:

    • 在左侧面板中,选择“高级设置”。
    • 在“高级设置”窗口中,选择“入站规则”选项。
  3. 添加新规则:

    • 在右侧面板中,选择“新建规则”。
    • 在出现的向导中,选择“端口”选项,然后点击“下一步”。
  4. 指定端口和协议:

    • 在“特定本地端口”中输入你的服务器端口号(例如,8000)。
    • 在“特定远程端口”中也输入相同的端口号,表示你要允许的远程连接端口。
    • 选择协议类型(通常是 TCP)。
  5. 选择允许连接:

    • 在下一步中选择“允许连接”。
  6. 指定连接的范围:

    • 在“对哪些网络连接应用此规则”中,选择“任何网络”(或者根据你的需要进行选择)。
  7. 指定规则的名称:

    • 输入规则的名称和可选的描述信息,然后点击“完成”。

我们同时需要更改相应端口的出站规则

接下来运行就没有问题了

接下来我展示一个数据分析的例子代码

  1. from http import HTTPStatus
  2. import dashscope
  3. import time
  4. import requests
  5. dashscope.api_key = ''
  6. def get_product(path, index=0):
  7. # 此处index控制读取文件的起始位置,默认为0
  8. l = []
  9. with open(path, 'r', encoding='utf-8') as fp:
  10. for line in fp.readlines():
  11. company, text = line.strip().split('\t')
  12. l.append((company, text))
  13. return l[index:]
  14. def call_with_prompt(company, text):
  15. prompt='''请给出产品名称"{}"的多级产品类别。
  16. 多级产品类别使用##分隔
  17. 示例1:
  18. 产品名称:智能冰箱控制器
  19. 多级产品类别:家用电器##生活电器##冰箱控制器
  20. 示例2:
  21. 产品名称:滚筒洗衣机
  22. 多级产品类别:家用电器##生活电器##洗衣机
  23. '''.format(text)
  24. url = "http://localhost:8000" # API的地址
  25. data = {
  26. "prompt": prompt,
  27. "history": [], # 历史对话,如果有的话,这里初始化为一个空列表
  28. "max_length": 2048, # 最大生成长度
  29. "top_p": 0.7, # Top-p采样参数
  30. "temperature": 0.95 # 温度参数
  31. }
  32. response = requests.post(url, json=data)
  33. # 解析响应
  34. if response.status_code == 200:
  35. answer = response.json()
  36. return answer
  37. else:
  38. # 请记录下所有获取失败的文本
  39. print(company + '\t' + text)
  40. if __name__ == '__main__':
  41. print("============================start============================")
  42. N = 1
  43. intput_path = '1.txt'
  44. output_path = 'result.txt'
  45. index = 0
  46. time_start = time.time()
  47. for company, text in get_product(intput_path, index):
  48. answer = call_with_prompt(company, text)
  49. with open(output_path, 'a', encoding='utf-8') as fp:
  50. fp.write('{}\t{}\t{}\n'.format(company, text, answer['response'].replace('\n', '$').replace('\t', '@')))
  51. time_end = time.time()
  52. all_time = time_end - time_start
  53. print(all_time)
  54. print("============================end============================")

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/小丑西瓜9/article/detail/696945
推荐阅读
  

闽ICP备14008679号