当前位置:   article > 正文

利用AnythingLLM构建自己的私人ChatGPT_手把手教anythingllm 如何使用?

手把手教anythingllm 如何使用?

利用AnythingLLM构建自己的私人ChatGPT

AnythingLLM简介

AnythingLLM是一个全栈应用,可以使用现有的商业化LLM(大型语言模型)或者流行的开源LLM向量数据库方案,来建立一个没有妥协的私人ChatGPT,既能在本地运行,也能远程托管,能和您提供的任何文件智能对话。

AnythingLLM把您的文件分成了叫作工作区的东西。工作区的作用有点像线程,但是你的文件都被容器化了。工作区间可以分享文件,但他们不互相交流,这样可以让每个工作区的环境都很清爽。

AnythingLLM的一些有趣特性:

1)支持多用户和权限设置

2)支持多种文件类型(如PDF、TXT、DOCX等)

3)通过简洁的用户界面管理向量数据库中的文件

4)两种聊天模式:会话模式和查询模式。会话模式会保存之前的问题和更正;查询模式则是针对文件的基本问答。

5)在聊天中加入引用链接至原文档源和文字

6)方便快速迭代的技术栈

7)云端部署准备就绪

8)“自己带LLM”的模式

9)非常有效的成本节约措施,对于处理庞大的文件来说特别划算。您永远不会因为多次嵌入大文件或转录文件而支付额外费用。相比于其他文件聊天机器人的解决方案,它提供了高达90%的成本效益提升。

10)提供完全的开发者API以实现自定义集成!

github地址

https://github.com/Mintplex-Labs/anything-llm​github.com/Mintplex-Labs/anything-llm

本地部署

llama.cpp server

提供兼容Openai 的 API,为anythingLLM提供运行后端

/data/llama.cpp/server -m qwen/qwen72b-chat-q4_0.gguf -ngl 100 --host 0.0.0.0 -c 2048

anythingLLM

docker 启动

官方文档:

Run AnythingLLM locally​docs.useanything.com/private-deployment/run-anythingllm-locally

本地简单临时启用,无数据持久化

docker run -d -p3001:3001 mintplexlabs/anythingllm:master

界面配置

访问 http://<yourip>:3001

选择LM Studio 配置base url(我选择的是ollama,因为LM Studio在我电脑上加载不了模型)

http://<yourip>:8080/v1

embedding 选择 第一个

向量数据库选择最后一个

最终配置后的界面如下:

使用展示

chat模式

文档问答模式

点击上图红色标记处位置切换为文档问答模式

点击设置按钮,上传文档

返回主界面进行文档问答

问答模式下,会显示该回答所引用的原文,方便查看确认信息

转自:利用AnythingLLM构建自己的私人ChatGPT - 知乎

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/Gausst松鼠会/article/detail/498475
推荐阅读
相关标签
  

闽ICP备14008679号