当前位置:   article > 正文

在微信小程序中如何支持使用流模式(stream),打造ChatGPT实时回复机器人,最详细讲解。_小程序流式输出

小程序流式输出

有开发过ChatGPT相关应用的都知道,小程序是不支持流式请求的,目前市面上大多数开发者的解决方案都是使用websocket来解决。

还有一部分开发者是小程序嵌套网页解决这个问题,前者对于我们软件销售型的团队来说,交付会很麻烦,而且问题也会很多,而后者主要是体验不怎么好,而且需要设置网页授权域名。

作为ChatGPT最早期的开发者,我们开发的ChatGPT分销版占据了市面上60%左右的市场,和下面图片相似的都是我们的ChatGPT分销版。

 在开发这个项目之前,我们开源了这个产品的前端模板,现在市面上很多雷同的产品都是基于我们的模板进行开发的,或者是借鉴开发的。

有客户运营我们的产品,目前已经累计200w+的充值金额,净利润预估至少100w+,我们的产品质量源自于这些客户的数据支撑。

我们的后端使用ThinkPHP5.0进行开发,Saas架构,界面看上去很大气,如下图所示。

 颜值绝对秒杀市面上的所有ChatGPT应用,当然我们的定价和服务也是相当超值的。

废话不多说,接下来我来详细介绍下我是怎么实现微信小程序的流式请求的。

一、设置请求头

我的微信小程序和网页H5都是用的同一个接口,而微信小程序不支持stream的方式,只能使用分段传输的方式。

所以在这一步你需要做一个接口的兼容,我是传一个参数代表是微信小程序请求还是网页请求,从而设置不同的请求头。

网页H5的我就不给出header了,这里主要给出小程序的请求头,如下所示。

  1. // 设置响应头信息
  2. header('Access-Control-Allow-Credentials: true');
  3. // 设置响应头信息
  4. header('Transfer-Encoding: chunked');
  5. header('Cache-Control: no-cache');
  6. header('Access-Control-Allow-Origin: *');
  7. header('Access-Control-Allow-Methods: GET, POST, OPTIONS');
  8. header('Access-Control-Allow-Headers: Content-Type');
  9. header('Connection: keep-alive');
  10. header('X-Accel-Buffering: no');

二,设置回复兼容

网页H5的流式请求我是直接返回的官方的响应数据,所以这里不能动之前的数据格式,在小程序请求这个接口时,需要单独返回对应的数据格式。

  1. if ($is_wxapp) {
  2. echo "success: " . json_encode(['content' => $content]) . "\r\n";
  3. }

结尾使用“\r\n”,并且当所有数据响应完成之后一定要输出0,如下图所示。

  1. if ($is_wxapp) {
  2. echo "0\r\n\r\n";
  3. ob_flush();
  4. flush();
  5. }

我这里为了兼容网页H5的流式请求,也是同样的加了判断之后输出的。

三,进入前端请求代码

以下是我完整的小程序请求方法,里面包含了我很多的业务逻辑,你可以根据你的业务进行修改,后面我会挑几个注意事项进行简述。

  1. async onChatApplet() {
  2. let _this = this;
  3. let token = uni.getStorageSync('token');
  4. const url = "";
  5. const requestTask = uni.request({
  6. url: url,
  7. timeout: 15000,
  8. responseType: 'text',
  9. method: 'GET',
  10. enableChunked: true,
  11. data: {},
  12. success: response => {
  13. // console.log(response)
  14. },
  15. fail: error => {}
  16. })
  17. requestTask.onHeadersReceived(function(res) {
  18. // console.log(res.header);
  19. });
  20. requestTask.onChunkReceived(function(response) {
  21. const arrayBuffer = response.data;
  22. const uint8Array = new Uint8Array(arrayBuffer);
  23. let text = uni.arrayBufferToBase64(uint8Array)
  24. text = new Buffer(text, 'base64')
  25. text = text.toString('utf8');
  26. if (text.indexOf('error') > 0) {
  27. let error = text.replace("event: error\ndata: ", "").replace("\r\n", "")
  28. error = JSON.parse(error)
  29. let len = _this.question.length
  30. _this.disabled = false
  31. if (error.code == 0) {
  32. _this.$refs.uToast.show({
  33. type: 'error',
  34. message: error.msg
  35. })
  36. if (len > 0) {
  37. _this.question[len - 1].content = error.msg
  38. } else {
  39. _this.question[0].content = error.msg
  40. }
  41. return false;
  42. }
  43. if (in_array(error.code, [10001, 11000, 500, 404])) {
  44. let length1 = 0
  45. if (length1 > 0) {
  46. _this.question[length1 - 1].content = error.msg
  47. } else {
  48. _this.question[0].content = error.msg
  49. }
  50. _this.$refs.uToast.show({
  51. type: 'error',
  52. message: error.msg
  53. })
  54. return false;
  55. }
  56. switch (error.code) {
  57. case -1:
  58. _this.question.pop()
  59. uni.navigateTo({
  60. url: '/pages/user/passport/login'
  61. })
  62. break;
  63. case 101:
  64. _this.question.pop()
  65. _this.$refs.uToast.show({
  66. type: 'error',
  67. message: error.msg,
  68. complete() {
  69. uni.navigateTo({
  70. url: '/pages/user/recharge/index'
  71. })
  72. }
  73. })
  74. break;
  75. case 102:
  76. let length = _this.question.length
  77. if (length > 0) {
  78. _this.question[length - 1].content = error.msg
  79. } else {
  80. _this.question[0].content = error.msg
  81. }
  82. _this.$refs.uToast.show({
  83. type: 'error',
  84. message: error.msg
  85. })
  86. break;
  87. default:
  88. break;
  89. }
  90. return false;
  91. }
  92. if (text.indexOf('success') != -1) {
  93. let json = text.split('success: ');
  94. json.forEach(function(element) {
  95. if (element) {
  96. element = JSON.parse(element)
  97. let index = 0
  98. if (_this.question.length > 0) {
  99. index = _this.question.length - 1
  100. }
  101. _this.question[index].content += element.content;
  102. _this.$nextTick(() => {
  103. uni.pageScrollTo({
  104. scrollTop: 2000000,
  105. duration: 0
  106. });
  107. });
  108. }
  109. })
  110. return false;
  111. }
  112. let done = text.replace("\r\n", "")
  113. if (done == 0) {
  114. _this.disabled = false
  115. }
  116. })
  117. }

注意事项:编码

  1. const arrayBuffer = response.data;
  2. const uint8Array = new Uint8Array(arrayBuffer);
  3. let text = uni.arrayBufferToBase64(uint8Array)
  4. text = new Buffer(text, 'base64')
  5. text = text.toString('utf8');

我这个方式比较简单粗暴,我在网上看到有人使用了第三方库,但是我测试下来行不通,就使用了uni官方这个转成Base64,然后再进行转码。

以上就是整个小程序的流式响应回复所需要用到的技术,也是最直接有效的方法,如果你现在掌握这门技术,再加上ChatGPT目前的势头,我相信你也能做出一些事情。

好了,就这样,做一个小小的记录,后期如果有空,我会继续分享我在开发ChatGPT产品的其他思路。

个人公众号:程序员在囧途

欢迎大佬交流合作,交个朋友也行。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/花生_TL007/article/detail/232258
推荐阅读
相关标签
  

闽ICP备14008679号