当前位置:   article > 正文

保姆级教程:如何用Python自制聊天机器人?_python resquest 流式输出 finishreason stop

python resquest 流式输出 finishreason stop
导语 | 近日, ChatGPT 作为 2023 年最火的技术之一,它将人工智能的应用和发展推向了一个新的高度。各种大模型也雨后春笋般涌现,基于大模型的聊天机器人层出不穷,腾讯的混元大模型便是其中一大翘楚。如果你连不上混元大模型,本文也给出一种解决方案让你能跑起来代码,看得到效果。今天,我们特邀了小樱桃 CEO 杜金房老师,他将为我们介绍如何使用 Python 连接腾讯混元大模型制作一个聊天机器人,并介绍底层通信协议和实现原理。

作者简介

杜金房,小樱桃 CEO,北京信悦通科技创始人,烟台小樱桃网络科技创始人,FreeSWITCH 中文社区创始人,RTS 社区和 RTSCon 创始人,《FreeSWITCH 权威指南》、《Kamailio 实战》、《深入理解 FFmpeg》作者,FreeSWITCH 开源项目核心 Committer。致力打造 XSwitch 通信云平台,基于腾讯云建设。现在,他正在写一本新书《大道至简,给所有人看的编程书》,旨在带大家洞悉编程本质。写作过程中,以编程课的形式在微信小程序上滚动发布,便于读者追更。

引言

腾讯混元大模型(Tencent Hunyuan)是由腾讯研发的大语言模型,具备强大的中文创作能力,复杂语境下的逻辑推理能力,以及可靠的任务执行能力。可应用于聊天、文档、会议、广告、营销等各种场景。

如果你没有用过混元大模型,可以先在微信中搜索微信小程序“腾讯混元助手”体验一下。腾讯混元大模型也支持 API 调用,可以在https://cloud.tencent.com/product/hunyuan 购买。下面的例子需要使用 API。

准备

下面步骤主要基于你已经熟悉 Python 程序,且已经有了一个腾讯云账号,并购买了混元大模型服务。

在第一次使用腾讯云 API 之前,我们首先需要在腾讯云控制台(https://console.cloud.tencent.com/cam/capi)上申请安全凭证,安全凭证包括 SecretID 和 SecretKey, SecretID 是用于标识 API 调用者的身份,SecretKey 是用于加密签名字符串和服务器端验证签名字符串的密钥。SecretKey 必须严格保管,避免泄露。

https://console.cloud.tencent.com/hunyuan进入控制台,点击左侧菜单栏的“ API 密钥”,然后点击“新建密钥”按钮,生成一个 API 密钥。在后面的代码中我们将用到这个 API 密钥。

确保已经安装了 Python 开发环境,腾讯云 SDK 支持 Python 2 和 Python 3,但建议使用 Python 3。

首先,我们安装腾讯云 Python SDK:

pip install --upgrade tencentcloud-sdk-python

其次,设置环境变量,在终端中输入以下命令,将 SecretID 和 SecretKey 替换成你的 API 密钥:

  1. export TENCENTCLOUD_SECRET_ID=你的SecretID
  2. export TENCENTCLOUD_SECRET_KEY=你的SecretKey

到此,环境就已准备好了。

快速体验

腾讯云提供了一个 Demo,可以从以下地址获取:

https://github.com/TencentCloud/tencentcloud-sdk-python/blob/master/examples/hunyuan/v20230901/chat_std.py

下载后,运行:pythonchat_std.py 随后,你将看到如下输出:

  1. 当然可以!这是一个爆笑笑话:
  2. 老师让小明造一句有“哥哥”二字的话。小明:“哥哥昨天晚上又玩游戏了。”
  3. 老师:“那你知道哥哥昨天玩什么游戏?”
  4. 小明:“不知道,我只知道哥哥又输了。”
  5. 这个笑话的笑点在于,它使用了双关语和幽默元素。第一个双关语是“哥哥”,既表示兄弟之间的称呼,也可以表示游戏角色的名称。第二个双关语是“又输了”,既表示游戏输了,也可以表示哥哥输了。这种双关语和幽默元素的结合,使得这个笑话非常搞笑。

如果看到类似上面的内容,就表示成功了。当然,每次输出的内容都不一样。

输出调试信息

当然,上述示例也会打印一些调试信息,下面是其中的一条 JSON 示例。可以看出,大模型返回了一个 Note,应该是规避一些法律风险。Choices 是一个数组,里面包含了多个候选项;Delta 是增量数据;Role 是角色,这里是 assistant,表示大语言模型助手;而实际的内容在 Content 中。

  1. {
  2. "Note": "以上内容为AI生成,不代表开发者立场,请勿删除或修改本标记",
  3. "Choices": [
  4. {
  5. "FinishReason": "",
  6. "Delta": {
  7. "Role": "assistant",
  8. "Content": "当"
  9. }
  10. }
  11. ],
  12. "Created": 1702001460,
  13. "Id": "bd2df0ed-4766-4478-bf9f-db43e70e7a63",
  14. "Usage": {
  15. "PromptTokens": 7,
  16. "CompletionTokens": 1,
  17. "TotalTokens": 8
  18. }
  19. }

GPT 的全称是 Generative Pre-trained Transformer,即生成式预训练大语言模型。这里的生成代表生成内容。一般来说,生成内容需要很高的算力,比较慢,需要一个过程,因此,现阶段几乎所有的大语言模型在成内容时都是渐近生成的。当你在使用 ChatGPT 等聊天的时候,也是看到字或词是一个一个“蹦”出来的。下面是几个 JSON 示例(简单起见,只放了 Delta 部分):

  1. "Delta":{"Role":"assistant","Content":"当"}
  2. "Delta":{"Role":"assistant","Content":"然可"}
  3. "Delta":{"Role":"assistant","Content":"以"}
  4. "Delta":{"Role":"assistant","Content":"!这是一"}
  5. "Delta":{"Role":"assistant","Content":"个爆"}
  6. "Delta":{"Role":"assistant","Content":"笑笑"}
  7. "Delta":{"Role":"assistant","Content":"话"}

代码解析

下面是完整的示例代码,我在其中添加了详细的注释:

  1. # -*- coding: utf-8 -*-
  2. import json
  3. import os
  4. # 导入腾讯云 SDK 相应的包
  5. from tencentcloud.common import credential
  6. from tencentcloud.common.exception.tencent_cloud_sdk_exception import TencentCloudSDKException
  7. from tencentcloud.hunyuan.v20230901 import hunyuan_client, models
  8. from tencentcloud.common.profile.client_profile import ClientProfile
  9. try:
  10. # 实例化一个认证对象,入参需要传入腾讯云账户 secretId,secretKey ,从环境变量中读取
  11. cred = credential.Credential(
  12. os.environ.get("TENCENTCLOUD_SECRET_ID"),
  13. os.environ.get("TENCENTCLOUD_SECRET_KEY"))
  14. # 初始化一个客户端,入参需要传入腾讯云服务器地域,这里传入广州地区
  15. client = hunyuan_client.HunyuanClient(cred, "ap-guangzhou")
  16. # 为了方便学习,输出一些调试信息
  17. client.set_stream_logger(level="DEBUG")
  18. # 创建一个标准请求对象
  19. req = models.ChatStdRequest()
  20. # 创建一个消息对象,这里的消息对象可以有多个,这里我们只用一个
  21. msg = models.Message()
  22. # 指定角色,这里是用户,相当于用户输入的提问信息
  23. msg.Role = "user"
  24. # 具体的提问内容
  25. msg.Content = "你好,可以讲个笑话吗"
  26. # 将上面的消息放到一个消息列表(数组)中
  27. req.Messages = [msg]
  28. # 从客户端发送请求,得到一个响应(resp)
  29. resp = client.ChatStd(req)
  30. full_content = ""
  31. # 循环从响应中获取内容
  32. for event in resp:
  33. print(event) # 输出调试信息
  34. data = json.loads(event['data'])
  35. for choice in data['Choices']:
  36. # 将收到的内容拼接起来,成为一个大的字符串
  37. full_content += choice['Delta']['Content']
  38. # 打印完整输出内容
  39. print(full_content)
  40. except TencentCloudSDKException as err:
  41. print(err)

聊天

为了能愉快地聊天,我们还需要一个循环,这样可以不断地从控制台输入问题,然后得到回答。不过,控制台输入不是我们的重点,篇幅关系,在此就忽略了。

下面,我们讲一下聊天的逻辑。理论上,每次运行时,只需要更换 msg.Content = "你好,可以讲个笑话吗"部分的代码,大模型就会输出不同的内容。这部分就是大家常说的“提示词”。

但是,大模型是非常健忘的。也就是说,它不记得它说过什么。如果你想跟大模型优雅地对话,你需要替它记住聊过的内容。我们将代码改成如下的样子:

  1. msg = models.Message()
  2. msg.Role = "user"
  3. msg.Content = "你好,可以讲个笑话吗"
  4. msg2 = models.Message()
  5. msg2.Role = "assistant"
  6. msg2.Content = '''
  7. 当然可以!这是一个爆笑笑话:
  8. 老师让小明造一句有“哥哥”二字的话。小明:“哥哥昨天晚上又玩游戏了。”
  9. 老师:“那你知道哥哥昨天玩什么游戏?”
  10. 小明:“不知道,我只知道哥哥又输了。”
  11. 这个笑话的笑点在于,它使用了双关语和幽默元素。第一个双关语是“哥哥”,既表示兄弟之间的称呼,也可以表示游戏角色的名称。第二个双关语是“又输了”,既表示游戏输了,也可以表示哥哥输了。这种双关语和幽默元素的结合,使得这个笑话非常搞笑。
  12. '''
  13. msg3 = models.Message()
  14. msg3.Role = "user"
  15. msg3.Content = "不好笑,再讲一个"
  16. req.Messages = [msg, msg2, msg3]

从上述代码中,我们给 req.Messages 提供了三条信息,前两条是第一次的用户提问和应答,第三条是用户的第二次追问。这样,大模型就能根据对话的上下文生成新的内容。

在实际应用中,可以将问答交互的流程保存到内存列表对象中,也可以保存到数据库中,在下次提问时附上前面的内容就可以了。关于这一点,我们就不特别举例了。

值得一提的是,大模型对上下文的支持是有限制的,因此,列表不能无限的长。下面部分来自官方文档说明,供参考:

● 长度最多为 40, 按对话时间从旧到新在数组中排列。

● Message 的 Role 当前可选值:user、assistant,其中,user 和 assistant 需要交替出现 (一问一答),最后一个为 user 提问,且 Content 不能为空。

● Messages 中 Content 总长度不超过 16000 token,超过则会截断最前面的内容,只保留尾部内容。建议不超过 4000 token。

Token

大模型一般都使用 Token 做为输入和输出的计量单位,它代表了大模型计算能力。混元大模型中,1 token 约等于 1.8 个中文汉字或 3 个英文字母。在腾讯云平台上有一个 Token 计算器,可以帮助你计算 Token 数量。

进阶

上面我们讲了使用 Python 跟大模型聊天的关键点,并给出了一个完整的示例代码。考虑到篇幅关系,我们并没有写一个完整的客户端程序。下面的几种建议读者可以自行练习:

● 把聊天的历史记录记在内存中,每次请求提供上下文。

● 让 Python 脚本接受命令行输入,通过命令行版聊天。

● 使用 PyGUI 之类的客户端库做一个 GUI 程序,让用户可以更方便地使用。

● 在 Python 程序中增加一个 HTTP Server,然后再写一个前端的网页输入框,在浏览器中聊天。

自制大模型

考虑到现在腾讯混元大模型还需要申请才能使用,而且也并不是所有读者都能立即申请到大模型体验。下面,我们自己动手做一个简单的大模型,用于测试我们的程序,同时,也学习一下相应的底层交互原理。

实现HTTP Server

我们先实现一个简单的 HTTP Server,用于接收用户的输入,然后模拟大模型返回输出。这里我们使用一个轻量级的 Web 服务器。下面是完整的代码及注释:

  1. # ! -*- coding: utf-8 -*-
  2. from http.server import HTTPServer, BaseHTTPRequestHandler
  3. import json
  4. # 监听地址和端口
  5. host = ('0.0.0.0', 8080)
  6. # 当收到HTTP请求时执行如下内容
  7. class Resquest(BaseHTTPRequestHandler):
  8. def handler(self):
  9. print("data:", self.rfile.readline().decode())
  10. self.wfile.write(self.rfile.readline())
  11. # 当收到GET请求时返回 Hello World,主要是为了测试服务器的正确性,可有可无
  12. def do_GET(self):
  13. data = {
  14. 'Hello': 'World',
  15. }
  16. self.send_response(200)
  17. self.send_header('Content-type', 'application/json')
  18. self.end_headers()
  19. self.wfile.write(json.dumps(data).encode())
  20. # 当收到POST请求时,返回结果
  21. def do_POST(self):
  22. # 返回 200 OK
  23. self.send_response(200)
  24. # 返回 event-stream 模式的数据,这是SSE协议要求的,后面还有解释
  25. self.send_header('Content-type', 'text/event-stream')
  26. self.end_headers()
  27. # 将一句话拆成多个词返回,模拟大模型的输出
  28. texts = ['这', '是', '一个', '笑话', '。']
  29. # 输出的JSON大致的结构
  30. data = {
  31. 'Choices': [
  32. {
  33. 'Delta': {
  34. 'Role': 'assistant',
  35. 'Content': '',
  36. },
  37. },
  38. ],
  39. }
  40. # 循环输出每一个词
  41. for i in range(texts.__len__()):
  42. # 将本次要输出的字符放到 Content
  43. data.get('Choices')[0].get('Delta')['Content'] = texts[i]
  44. if i == texts.__len__() - 1:
  45. # 是后一个输出,加上个 stop 标志,表示说话完成
  46. data.get('Choices')[0]['FinishReason'] = 'stop'
  47. self.wfile.write('data: '.encode('utf-8'))
  48. self.wfile.write(json.dumps(data).encode('utf-8'))
  49. # 每次输出完毕,加上两个换行符
  50. self.wfile.write(b'\n\n')
  51. if __name__ == '__main__':
  52. # 启动服务器,监听相应的HTTP端口
  53. server = HTTPServer(host, Resquest)
  54. print("Starting server, listen at: %s:%s" % host)
  55. server.serve_forever()

写好后,存成 mock_server.py,执行pythonmock_server.py可以启动一个 Web 服务器,监听8080端口。

接下来,我们可以打开另一个终端窗口,使用 curl 命令发一个请求,就可以看到返回的结果:

  1. curl localhost:8080
  2. {"hello": "world"}

如果相看更详细的 HTTP 信息(包括请求和返回的 HTTP 头域),可以使用-v 参数:

  1. curl -v localhost:8080
  2. * Trying 127.0.0.1:8080...
  3. * Connected to localhost (127.0.0.1) port 8080 (#0)
  4. > GET / HTTP/1.1
  5. > Host: localhost:8080
  6. > User-Agent: curl/7.85.0
  7. > Accept: */*
  8. >
  9. * Mark bundle as not supporting multiuse
  10. * HTTP 1.0, assume close after body
  11. < HTTP/1.0 200 OK
  12. < Server: BaseHTTP/0.6 Python/3.10.9
  13. < Date: Fri, 08 Dec 2023 07:00:04 GMT
  14. < Content-type: application/json
  15. <
  16. * Closing connection 0
  17. {"hello": "world"}

发一个 POST 请求试试,随便传一个参数:

  1. curl -XPOST -d a=1 localhost:8080
  2. data: {"Choices": [{"Delta": {"Role": "assistant", "Content": "这"}}]}
  3. data: {"Choices": [{"Delta": {"Role": "assistant", "Content": "是"}}]}
  4. data: {"Choices": [{"Delta": {"Role": "assistant", "Content": "一个"}}]}
  5. data: {"Choices": [{"Delta": {"Role": "assistant", "Content": "笑话"}}]}
  6. data: {"Choices": [{"Delta": {"Role": "assistant", "Content": "。"}, "FinishReason": "stop"}]}

注意,在实际操作中,你看到的中文可能是 JSON 编码器转义过的,如\u8fd9就是 “这” 这个字。

让聊天程序连接我们自己的大模型

上面我们已经准备好了一个大模型的模拟器,现在我们来修改一下聊天程序,让它连接我们自己的大模型。

首先,打开 chat_std.py,找到如下一行:

    client = hunyuan_client.HunyuanClient(cred, "ap-guangzhou")

改成如下的样子,详见代码内注释。

  1. # 创建一个客户端配置对象
  2. client_profile = ClientProfile()
  3. # 将服务器地址改成我们自己的服务器地址
  4. client_profile.httpProfile.endpoint = "localhost:8080"
  5. # 默认是 https,改成 http 协议
  6. client_profile.httpProfile.protocol = "http"
  7. client_profile.httpProfile.scheme = "http"
  8. # 增加一个 client_profile 参数,将上述设置传入底层的 HTTP 客户端
  9. client = hunyuan_client.HunyuanClient(cred, "ap-guangzhou", client_profile)

保存后,运行 pythonchat_std.py,你将看到如下输出:

  1. python chat_std.py
  2. 2023-12-08 15:09:04,374 10230 request.py L109 DEBUG GetResponse <Response [200]>
  3. {'data': ' {"Choices": [{"Delta": {"Role": "assistant", "Content": "这"}}]}'}
  4. {'data': ' {"Choices": [{"Delta": {"Role": "assistant", "Content": "是"}}]}'}
  5. {'data': ' {"Choices": [{"Delta": {"Role": "assistant", "Content": "一个"}}]}'}
  6. {'data': ' {"Choices": [{"Delta": {"Role": "assistant", "Content": "笑话"}}]}'}
  7. {'data': ' {"Choices": [{"Delta": {"Role": "assistant", "Content": "。"}}]}'}
  8. {'data': ' {"Choices": [{"Delta": {"Role": "assistant", "Content": ""}, "FinishReason": "stop"}]}'}
  9. 这是一个笑话。

这就表示,我们的聊天机器人程序成功连接到了我们自制的大模型。这种通过 Mock 方式模拟的 API 服务器在开发中经常用到,它可以简化开发过程,人为制造一些流程和场景,甚至在做压力测试时也可以大大节省 Token 的费用。正所谓“磨刀不误砍柴工”。

SSE

最后,我们来说一下 SSE 协议。SSE 的全称是 Server-Sent Event,即服务端推送事件,是一个流式协议,用于 HTTP 长连接中的服务端事件推送。大模型类的聊天程序广泛使用了该协议,包括 ChatGPT 和腾讯混元大模型。

SSE 协议很简单,在 HTTP 输出头中增加Content-Type: text/event-stream,然后在每次输出的数据前面加data:(注意这里有一个空格),并在每次输出的数据后面加上两个换行符 \n\n。这样,客户端就可以通过 data: 来判断每次输出的数据了。上面例子中的数据输出就是 SSE,下面再写一遍加深印象:

  1. data: {"Choices": [{"Delta": {"Role": "assistant", "Content":
  2. "这"}}]}
  3. data: {"Choices": [{"Delta": {"Role": "assistant", "Content":
  4. "是"}}]}

如果一行数据比较长,也可以分成多行输出,但每行都要以 data: 开头,以 \n 结尾,最后一行以 \n\n 结尾。如(注意,下面是一个句子):

  1. data: 这
  2. data: 是一个
  3. data: 很长的句子。

前面可以加一个id:,表示数据的序号,这样客户端就可以判断数据的顺序了。如:

  1. id: 1
  2. data: Hello

也可以给这个句子(事件)起个名字,如:

  1. event: 笑话101
  2. data: 这是一个很好笑的笑话。

以冒号开头的行是一个注释,如:

: 这是一个注释

HTTP 请求只能发送一次,服务端在 HTTP 连接不断开的情况下,可以一直推送数据,这也就是你在使用 ChatGPT 时经常看到的慢慢往外“蹦”字的效果。同样,用户的每次询问都需要重新发起一个新的 HTTP 请求。

理解SSE协议有助于理解程序跟大模型间的通信原理,从而更好地理解大模型及其API。

小结

本文带你手把手使用 Python 语言写了一个简单的大模型聊天程序,并介绍了相应的调用流程和底层通信协议。如果你连不上混元大模型,也可以使用文中的模拟程序(Mock)来测试你的聊天机器人程序。

在「腾讯云TVP」公众号后台回复「聊天机器人」,即可下载本文完整的源代码,并订阅老师新书《大道至简,给所有人看的编程书》。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/weixin_40725706/article/detail/159408
推荐阅读
相关标签
  

闽ICP备14008679号