当前位置:   article > 正文

使用FastGPT与ChatGPT搭建高效的企业知识库平台_pgvector 镜像

pgvector 镜像

ef7abfbec649f521fec8fd78b136fa60.jpeg

概要

介绍如何利用开源项目FastGPT及ChatGPT等大模型API快速构建适用于企业的知识库问答系统。FastGPT提供的即开即用的数据处理和模型调用能力使得搭建这样的系统变得简单快捷。通过图形编排工具,企业可以轻松定制问答流程,有效整合内部知识资源。

本文将详细讲述FastGPT的主要优势、必要的准备工作、系统部署的详细步骤以及如何利用其丰富的功能提升企业知识管理和客户服务效率。同时,也会解答一些在部署和使用过程中可能遇到的常见问题。通过本文的指导,读者可以快速理解并开始构建自己的企业级知识库问答系统
 

FastGPT简介

FastGPT是一个创新的开源项目,旨在利用最新的大模型AI技术,特别是GPT系列模型,来快速搭建企业级的知识库问答系统。它通过简化和优化问答系统的构建流程,使企业能够轻松部署和维护高效的知识管理平台。

5b22746c5d2752078318538c47c2a5d1.jpeg

bf7f72f42b7cc0a18c3b967a0003ae7a.jpeg

核心特性:


1.即开即用: FastGPT设计理念是“开箱即用”,企业无需进行复杂配置即可快速启动和运行系统。
2.图形编排工具: FastGPT提供一套直观的图形界面,用户可以通过拖拽的方式设计和管理问答流程,无需深入编程即可定制复杂的工作流。
3.强大的兼容性: 项目支持多种AI大模型API,包括OpenAI的GPT系列,这意味着企业可以根据自身需求和预算选择最合适的服务。
4.易于部署: FastGPT支持Docker容器化部署,极大简化了在不同环境下的安装和迁移工作。
5.扩展性强: 企业可以根据自身成长和需求变化,轻松扩展系统功能和处理能力。

应用场景:

内部知识管理: 帮助企业整合内部文档、指南和专家知识,通过问答形式快速提供给员工。
客户支持: 构建面向客户的FAQ和问题解答系统,提高客户满意度和响应速度。
市场调研: 分析和回应市场趋势或消费者需求的变化,帮助决策者快速获取关键信息。
FastGPT的目标是降低技术门槛,使更多企业能够利用AI技术优化知识管理和客户服务,从而提升运营效率和竞争力。

准备工作

建立系统前,需准备云服务器、域名、Docker及AI大模型API。

1.云服务器:推荐2核2G以上配置
2.域名:建议使用域名访问,部署前完成域名解析
3.安装Docker:非必须,建议使用docker,部署简单,无需考虑环境差异等兼容性问题。
4.申请AI大模型API:如果使用ChatGPT API并且使用国内或香港区域服务器,由于OpenAI限制,需要单独购买其他地域中转服务器或者购买中转服务。目前国内中转服务较多,价格低廉,响应速度尚可。

部署步骤

采用Docker部署FastGPT
 

1.安装 Docker 和 docker-compose

2.创建目录并下载 docker-compose.yml


依次执行下面命令,创建 FastGPT 文件并拉取docker-compose.yml和config.json,执行完后目录下会有 2 个文件。

注意: docker-compose.yml 配置文件中 Mongo 为 5.x,部分服务器不支持,需手动更改其镜像版本为 4.4.24

  1. mkdir fastgpt
  2. cd fastgpt
  3. curl -O https://raw.githubusercontent.com/labring/FastGPT/main/files/deploy/fastgpt/docker-compose.yml
  4. curl -O https://raw.githubusercontent.com/labring/FastGPT/main/projects/app/data/config.json

3.修改docker-compose.yml


示例代码:

  1. version: '3.3'
  2. services:
  3. pg:
  4. image: ankane/pgvector:v0.5.0 # git
  5. # image: registry.cn-hangzhou.aliyuncs.com/fastgpt/pgvector:v0.5.0 # 阿里云 国内机器请使用此镜像
  6. container_name: pg
  7. restart: always
  8. ports: # 生产环境建议不要暴露
  9. - 5432:5432
  10. networks:
  11. - fastgpt
  12. environment:
  13. # 这里的配置只有首次运行生效。修改后,重启镜像是不会生效的。需要把持久化数据删除再重启,才有效果
  14. - POSTGRES_USER=username
  15. - POSTGRES_PASSWORD=password
  16. - POSTGRES_DB=postgres
  17. volumes:
  18. - ./pg/data:/var/lib/postgresql/data
  19. mongo:
  20. image: mongo:5.0.18
  21. # image: registry.cn-hangzhou.aliyuncs.com/fastgpt/mongo:5.0.18 # 阿里云 国内机器请使用此镜像
  22. container_name: mongo
  23. restart: always
  24. ports: # 生产环境建议不要暴露
  25. - 27017:27017
  26. networks:
  27. - fastgpt
  28. environment:
  29. # 这里的配置只有首次运行生效。修改后,重启镜像是不会生效的。需要把持久化数据删除再重启,才有效果
  30. - MONGO_INITDB_ROOT_USERNAME=username
  31. - MONGO_INITDB_ROOT_PASSWORD=password
  32. volumes:
  33. - ./mongo/data:/data/db
  34. fastgpt:
  35. container_name: fastgpt
  36. image: ghcr.io/labring/fastgpt:latest # git
  37. # image: registry.cn-hangzhou.aliyuncs.com/fastgpt/fastgpt:latest # 阿里云 国内机器使用
  38. ports:
  39. - 3000:3000
  40. networks:
  41. - fastgpt
  42. depends_on:
  43. - mongo
  44. - pg
  45. restart: always
  46. environment:
  47. # root 密码,用户名为: root
  48. - DEFAULT_ROOT_PSW=1234
  49. # 中转地址,如果是用官方号,不需要管。务必加 /v1
  50. - OPENAI_BASE_URL=https://api.openai.com/v1
  51. - CHAT_API_KEY=sk-xxxx
  52. - DB_MAX_LINK=5 # database max link
  53. - TOKEN_KEY=any
  54. - ROOT_KEY=root_key
  55. - FILE_TOKEN_KEY=filetoken
  56. # mongo 配置,不需要改. 如果连不上,可能需要去掉 ?authSource=admin
  57. - MONGODB_URI=mongodb://username:password@mongo:27017/fastgpt?authSource=admin
  58. # pg配置. 不需要改
  59. - PG_URL=postgresql://username:password@pg:5432/postgres
  60. volumes:
  61. - ./config.json:/app/data/config.json
  62. networks:
  63. fastgpt:

配置说明:

DEFAULT_ROOT_PSW:前台root管理员登录密码,建议修改

OPENAI_BASE_URL:AI大模型接口地址,如果是使用ChatGPT API中转服务,请配置中转地址

CHAT_API_KEY:AI大模型接口KEY
 

4.config.json配置


一般可不调整,使用默认配置

示例代码:
 

  1. {
  2. "FeConfig": {
  3. "show_emptyChat": true,
  4. "show_register": true,
  5. "show_appStore": false,
  6. "show_userDetail": false,
  7. "show_contact": true,
  8. "show_git": false,
  9. "show_doc": false,
  10. "systemTitle": "MyGPT",
  11. "authorText": "Made by MyGPT Team.",
  12. "scripts": []
  13. },
  14. "SystemParams": {
  15. "pluginBaseUrl": "",
  16. "vectorMaxProcess": 15,
  17. "qaMaxProcess": 15,
  18. "pgHNSWEfSearch": 100
  19. },
  20. "ChatModels": [
  21. {
  22. "model": "gpt-3.5-turbo-1106",
  23. "name": "GPT35-1106",
  24. "price": 0,
  25. "maxContext": 16000,
  26. "maxResponse": 4000,
  27. "quoteMaxToken": 2000,
  28. "maxTemperature": 1.2,
  29. "censor": false,
  30. "vision": false,
  31. "defaultSystemChatPrompt": ""
  32. },
  33. {
  34. "model": "gpt-3.5-turbo-16k",
  35. "name": "GPT35-16k",
  36. "maxContext": 16000,
  37. "maxResponse": 16000,
  38. "price": 0,
  39. "quoteMaxToken": 8000,
  40. "maxTemperature": 1.2,
  41. "censor": false,
  42. "vision": false,
  43. "defaultSystemChatPrompt": ""
  44. },
  45. {
  46. "model": "gpt-4",
  47. "name": "GPT4-8k",
  48. "maxContext": 8000,
  49. "maxResponse": 8000,
  50. "price": 0,
  51. "quoteMaxToken": 4000,
  52. "maxTemperature": 1.2,
  53. "censor": false,
  54. "vision": false,
  55. "defaultSystemChatPrompt": ""
  56. },
  57. {
  58. "model": "gpt-4-vision-preview",
  59. "name": "GPT4-Vision",
  60. "maxContext": 128000,
  61. "maxResponse": 4000,
  62. "price": 0,
  63. "quoteMaxToken": 100000,
  64. "maxTemperature": 1.2,
  65. "censor": false,
  66. "vision": true,
  67. "defaultSystemChatPrompt": ""
  68. }
  69. ],
  70. "QAModels": [
  71. {
  72. "model": "gpt-3.5-turbo-16k",
  73. "name": "GPT35-16k",
  74. "maxContext": 16000,
  75. "maxResponse": 16000,
  76. "price": 0
  77. }
  78. ],
  79. "CQModels": [
  80. {
  81. "model": "gpt-3.5-turbo",
  82. "name": "GPT35",
  83. "maxContext": 4000,
  84. "maxResponse": 4000,
  85. "price": 0,
  86. "functionCall": true,
  87. "functionPrompt": ""
  88. },
  89. {
  90. "model": "gpt-4",
  91. "name": "GPT4-8k",
  92. "maxContext": 8000,
  93. "maxResponse": 8000,
  94. "price": 0,
  95. "functionCall": true,
  96. "functionPrompt": ""
  97. }
  98. ],
  99. "ExtractModels": [
  100. {
  101. "model": "gpt-3.5-turbo-1106",
  102. "name": "GPT35-1106",
  103. "maxContext": 16000,
  104. "maxResponse": 4000,
  105. "price": 0,
  106. "functionCall": true,
  107. "functionPrompt": ""
  108. }
  109. ],
  110. "QGModels": [
  111. {
  112. "model": "gpt-3.5-turbo-1106",
  113. "name": "GPT35-1106",
  114. "maxContext": 1600,
  115. "maxResponse": 4000,
  116. "price": 0
  117. }
  118. ],
  119. "VectorModels": [
  120. {
  121. "model": "text-embedding-ada-002",
  122. "name": "Embedding-2",
  123. "price": 0.2,
  124. "defaultToken": 700,
  125. "maxToken": 3000
  126. }
  127. ],
  128. "ReRankModels": [],
  129. "AudioSpeechModels": [
  130. {
  131. "model": "tts-1",
  132. "name": "OpenAI TTS1",
  133. "price": 0,
  134. "voices": [
  135. { "label": "Alloy", "value": "alloy", "bufferId": "openai-Alloy" },
  136. { "label": "Echo", "value": "echo", "bufferId": "openai-Echo" },
  137. { "label": "Fable", "value": "fable", "bufferId": "openai-Fable" },
  138. { "label": "Onyx", "value": "onyx", "bufferId": "openai-Onyx" },
  139. { "label": "Nova", "value": "nova", "bufferId": "openai-Nova" },
  140. { "label": "Shimmer", "value": "shimmer", "bufferId": "openai-Shimmer" }
  141. ]
  142. }
  143. ],
  144. "WhisperModel": {
  145. "model": "whisper-1",
  146. "name": "Whisper1",
  147. "price": 0
  148. }
  149. }

5.启动容器


依次执行命令行:

  1. docker-compose pull
  2. docker-compose up -d


如果拉取镜像缓慢,可能是使用国内服务器,请将docker-compose.yml文件的image都修改为阿里云的镜像地址。

6.配置域名访问

请提前完成域名解析。

新增nginx配置

反向代理示例代码:

  1. location / {
  2. proxy_set_header Host $host;
  3. proxy_set_header X-Real-IP $remote_addr;
  4. proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
  5. proxy_pass http://127.0.0.1:3000;
  6. }

7.访问测试


使用域名访问,查看是否能进入系统
e59e3f3b1ea163f3c4afe8ecf42da4e4.jpeg

功能一览

1.知识库管理

支持多种知识库导入方式。

3127c7c94328e517209224caa25a1524.jpeg

bbad410a675142bf1beec37e52d13417.jpeg

2.应用创建与配置

简化应用的创建和配置过程。

b541f97c5a895b0c62e6a1eb998e38b5.jpeg

3.问答界面

提供友好的用户交互界面。
d72b4113fd63cda6818b36607e78592c.jpeg

4.外部分享配置

方便用户分享知识库。

ebccab84e478b11db183babd7aa8a22e.jpeg

5.应用编排

FastGPT 从 V4 版本开始采用新的交互方式来构建 AI 应用。使用了 Flow 节点编排的方式来实现复杂工作流,提高可玩性和扩展性。但同时也提高了上手的门槛,有一定开发背景的用户使用起来会比较容易。
067c8028cca6c5e4de3e814761f7172a.jpeg

使用FastGPT与ChatGPT搭建高效的企业知识库平台 | ChatGPT在线中文网

常见问题Q&A

怎么更新到最新版FastGPT? 

执行下面命令会自动拉取最新镜像,一般情况下不需要执行额外操作。

  1. docker-compose pull
  2. docker-compose up -d

如何自定义配置文件? 

修改config.json文件,并执行docker-compose up -d重起容器。

错误排查方式

遇到问题先按下面方式排查。
docker ps -a 查看所有容器运行状态,检查是否全部 running,如有异常,尝试docker logs 容器名查看对应日志。
不懂 docker 不要瞎改端口,只需要改OPENAI_BASE_URL和CHAT_API_KEY即可。

如何配置自己企业名称和logo? 


企业名称修改:config.json中的systemTitle

logo和登录图,在nginx中配置拦截logo登录图片文件,配置指定文件

示例配置:

location ~ favicon.ico {
root /gpt/;
}


location ~ ^/icon/loginLeft.svg$ {
root /gpt/;
}

location ~ ^/icon/logo.png$ {
root /gpt/;
}

location ~ ^/icon/loginLeft.png$ {
root /gpt/;
}

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/小蓝xlanll/article/detail/630269
推荐阅读
相关标签
  

闽ICP备14008679号