当前位置:   article > 正文

2024最新私有化部署AI大模型,让每个人都有属于自己的AI助理_私有ai模型

私有ai模型

让每个人都拥有一个属于自己的本地大模型

下载Ollama

下载地址

https://ollama.com/download

​ Ollama支持MacOS、Linux、Windows

image-20240507105722380

解压

下载完成后,会得到一个Ollama-darwin.zip文件,解压后,以Mac为例是一个可运行文件:Ollama.app

image-20240507110010601

使用步骤

  1. 双击解压后的可运行文件:Ollama.app

  2. 在Ollama官网上点击Models,可看见各种大模型的列表,我这里选择了llama3

    image-20240507110356947

  3. 打开终端,执行如下命令:ollama run llama3

  4. 等待下载模型文件,llama3:8b大概4.7GB

    image-20240507110739615

  5. 完成后,会出现如下窗口说明安装成功

    image-20240507111012638

  6. 发送任意消息进行测试

    image-20240507111147248

使用聊天页面调用大模型

无论是使用命令还是调用大模型接口,用起来肯定是不方便,大模型肯定是要配合完美的页面来使用的。我推荐使用的是open-webui

gitHub地址

https://github.com/open-webui/open-webui

安装方式

推荐使用docker安装(可直接参考github中的文档)

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

使用

安装成功后,浏览器直接访问localhost:3000,注册一个账号,即可正常使用。

在UI页面中,可设置系统语言,支持中文

image-20240507111929884

image-20240507112004852

开发工具插件使用本地大模型

有很多插件都支持Ollama,拿VsCode开发工具来说,有一个插件叫Ollama Autocoder

image-20240507112321692

在设置中,将模型手动改为:llama3

image-20240507112651772

在VSCode中,按下空格即可有插件的提示:

image-20240507112808701

按下Tab键,即可使用大模型的推理生成上下文代码。这里不重点介绍了,有很多优秀的插件做的都很好,这里着重演示使用本地大模型。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/空白诗007/article/detail/939196
推荐阅读
相关标签
  

闽ICP备14008679号