当前位置:   article > 正文

【大模型实战篇】基于开源大模型的问答系统本地部署实战教程

大模型的问答系统

1. 现有大模型产品使用感受     

        在开始教你搭建属于自己的本地大模型之前,先说下自己日常使用大模型的感受。常用的比较好的国外大模型工具,经常会遇到网络卡或者token数量、使用次数限制的问题。而国内的大模型工具虽然不存在网络的问题,但总担心自身数据存在泄露的风险。因此,为了摆脱这类疑虑,开始了本地大模型部署和使用。本次分享的课程,不需要有强计算机背景的同学都可以操作,还是比较通用简单的。

2. 本地版本大模型问答系统初览

 图1. 基于ollama实现的本地大模型问答系统

        图1展示的是我们本地部署的问答系统版本,模型可以任意选择,几乎支持开源的各类主流大模型。从界面、使用体验等维度来说还是不错的。本地资源足够,推理的速度很不错。

3. 本地部署问答系统实战

         接下来会以macOS系统为例讲解。

3.1 下载并安装ollama

图2. ollama首页及不同版本下载界面      

        下载完毕后,就直接安装到底,看到图3最右侧的ollama标识,说明你已经安装完成了。

图3. ollama安装状态

3.2 选择大模型版本并运行
        回到ollama官网,找到模型列表入口,如图4所示,ollama提供了非常多的开源大模型可供使用,假如你本地的资源足够,可以直接用上目前开源领域效果最佳的llama 3.1版本,各项指标都处于目前开源领域的前列,相比闭源也有一定的优势。      

图4. ollama提供的大模型文件

        为了演示方便,我们这边使用qwen的0.5B版本,大小为300-400MB左右,如图5所示,复制红框所示的运行命令,打开terminal执行命令,看到success,说明已经安装成功,这个时候已经可以直接对话了。

        我问了一个问题,翻译的还不错,哈哈。

Q:请把以下这段话翻译成英文:你也可以打造属于自己的聊天工具。

A:You can also create your own chat tool.

图5. 运行指定的大模型并对话实验

3.3 安装webUI
        虽然已经可以对话了,但是没有web界面,没法操作很多其他的功能,比如上传文件、语音、图片等,总感觉不方便,对吧。接下来我们开始安装页面端,也就是拥有文章一开始图1的界面使用体验。

        首先到docker官网下载对应版本安装docker,如图6所示。Docker是一组平台即服务(PaaS)的产品。它基于操作系统层级的虚拟化技术,将软件与其依赖项打包为容器。

图6. docker安装

        接下来,到github下载Open WebUI,复制对应的镜像启动命令,这里会有一些不同的选项,需要根据你自己的实际情况下载,因为我的ollama部署在本地电脑,所以选择第一条指令,如图7所示。

图7. Open WebUI安装

        执行完刚才的docker run指令后,回到docker管理界面,就可以看到红框部分的容器信息。

图8. 执行docker指令

     在浏览器中输入http://localhost:3000/auth/, 就出现了注册和登录信息,注册一下账号。登录之后就可以使用基于webUI的自有大模型问答系统进行对话啦,还能上传文件进行处理。

图9. webUI搭建完成选择相应llm模型

图10. 本地大模型问答系统体验

        以上就是搭建属于你自己的开源大模型问答系统教程了。对了,首次注册的账号,会自己成为管理员账号,这个注意一下。也可以自行去做更多的定制。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/小舞很执着/article/detail/1015106
推荐阅读
相关标签
  

闽ICP备14008679号