赞
踩
在本地部署大模型有多种方式,其中Ollama方式是最简单的,但是其也有一定的局限性,比如大模型没有其支持的GGUF二进制格式,就无法使用Ollama方式部署。
GGUF旨在实现快速加载和保存大语言模型,并易于阅读
Ollama 是一个用于部署和运行各种开源大模型的工具。用户通过执行几条命令就能在本地运行开源大模型,极大简化了大模型在本地运行,类似于Docker。
支持的操作系统: MacOS/Linux/Windows/Docker
使用最简单的方式:使用brew install ollama
安装。
在Termial
上输入ollama -v
命令,如果出现如下图,则说明安装成功
gpt4all是一个免费使用、本地运行、具有隐私意识的聊天机器人,无需 GPU 或互联网。 可以在任意地方运行大模型的框架
A free-to-use, locally running, privacy-aware chatbot. No GPU or internet required. run open-source LLMs anywhere
OpenLLM 是一个用于在生产环境中操作大型语言模型(LLM)的开放平台。它使开发人员能够轻松地运行任何开源LLM的推理,部署到云端或本地,并构建强大的AI应用程序。
说明:Ollama的运行会受到所使用模型大小的影响。留意个人电脑配置选择合适的模型
打开 Terminal 执行 ollama run llava:7b
命令 至此成功在本地安装一个llava
参数为7B的大模型,我们可以使用Spring AI 对接本地的大模型,再也不用担心Open AI Key的问题了。
LobeChat
是现代化设计的开源 ChatGPT/LLMs
聊天应用与开发框架,支持语音合成、多模态、可扩展的插件系统。一键免费拥有你自己的 ChatGPT/Gemini/Claude/Ollama 应用。
LobeChat 支持多种平台的部署,我们选择最常用的Docker方式部署
Docker在不同平台上简单的安装命令,根据自己操作系统进行选择;
打开 Terminal 终端执行如下Docker命令,仅限使用本地Ollama;
docker run -d -p 3210:3210 --name lobe-chat lobehub/lobe-chat
输入 localhost:3210 界面如下;
当我们进去界面后,点击大脑图标
,需要配置LobeChat使用的大模型。 然后点击前往设置
进入进行设置界面,如下图所示;
Ollama
点击获取模型列表
,获取安装在Ollama上的模型,我已经安装了四个了大脑图标
就有刚才配置的模型,选择需要使用的大模型。 至此已成功安装了LobeChat界面程序,然后测试聊天,如下所示; 至此我们成功部署了属于自己的ChatGPT。
除 LobeChat UI 框架外,还有一些比较优秀的框架,具体如下
Open WebUI 是一个可扩展、功能丰富且用户友好的开源自托管 AI 界面,旨在完全离线运行。它支持各种 LLM 运行器,包括 Ollama 和 OpenAI 兼容的 API。
Enchanted 是一款专门为 MacOS/iOS/iPadOS 平台开发的应用程序,支持 Llama、Mistral、Vicuna、Starling 等多种私人托管模型。该应用致力于在苹果的全生态系统中为用户提供一个未经过滤、安全、保护隐私以及多模态的人工智能体验。
Chatbox 是一个老牌的跨平台开源客户端应用,基于 Tauri 开发,简洁易用。除了 Ollama 以外他还能够通过 API 提供另外几种流行大模型的支持。
NextJS Ollama LLM UI 是一款专为 Ollama 设计的极简主义用户界面。虽然关于本地部署的文档较为有限,但总体上安装过程并不复杂。该界面设计简洁美观,非常适合追求简约风格的用户。
本篇文章介绍了本地大模型的部署和 LobeChat 界面的部署,成功在本地部署属于自己的ChatGPT。上面也只是关键步骤的说明,遇到问题多看下官方的安装文档。本文起到抛砖引玉作用。
作为一名热心肠的互联网老兵,我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。
但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的 AI大模型资料
包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。