当前位置:   article > 正文

本地离线部署Ai大模型的三种方案,含安装教程!_ai本地部署

ai本地部署

图片

1.为什么要本地离线部署Ai大模型?

离线部署AI大模型有多个重要原因,涵盖了安全性、隐私、成本、控制性和可靠性等方面。以下是一些主要的原因和详细解释:

1.1. 数据隐私和安全

  • 敏感数据保护:某些应用需要处理高度敏感的个人或商业数据,如医疗记录、金融信息或知识产权数据。离线部署可以确保这些数据不离开本地环境,减少泄露的风险。
  • 合规性:一些行业和地区对数据保护有严格的法规和要求(如GDPR),要求数据必须在本地存储和处理。

1.2. 成本控制

  • 长期成本降低:虽然初期的硬件投资较高,但长期使用本地部署可能比持续支付云服务的使用费用更为经济,特别是在处理大量数据或频繁使用时。
  • 避免云计算费用波动:使用云服务时,费用可能会因使用量波动而不可预测。离线部署能够提供更稳定的成本控制。

1.3. 性能和延迟

  • 低延迟:本地部署可以提供更低的延迟,特别适合需要实时响应的应用,如自动驾驶、工业控制和实时通信。
  • 高性能:在本地部署中,硬件资源专用于特定任务,可以进行更好的性能优化。

1.4. 控制和定制化

  • 完全控制:本地部署允许你对硬件和软件环境进行完全控制,可以根据需要进行优化和定制,而无需依赖第三方提供商。
  • 深度定制:你可以根据具体需求对模型和系统进行深度定制,而不受云服务提供商的限制。

1.5. 可靠性和可用性

  • 避免网络依赖:本地部署可以在没有互联网连接的情况下工作,适合在网络连接不稳定或不可用的环境中使用,如远程或边缘设备。
  • 减少停机时间:依赖云服务可能会遇到服务中断或限制,本地部署可以提供更高的可用性和可靠性。

1.6. 数据带宽和传输

  • 减少数据传输需求:处理大量数据时,数据传输到云端可能需要大量带宽并且耗时。本地处理可以避免这些问题,提高处理效率。

1.7. 技术和创新

  • 创新空间:在本地部署中,你可以自由地实验新的技术和方法,而不受云服务提供商的限制。这对前沿研究和开发特别重要。

当然也适用于有些工作环境只能使用内网的情况!!!

2.方案一:GPT4All

一个免费使用、本地运行、具有隐私意识的聊天机器人,无需 GPU 或互联网。

图片

以下是GPT4All支持的Ai大模型!

GPT4All-J 6B v1.0 GPT4All-J v1.1-breezy GPT4All-J v1.2-jazzy GPT4All-J v1.3-groovy GPT4All-J Lora 6B GPT4All LLaMa Lora 7B GPT4All 13B snoozy GPT4All Falcon Nous-Hermes Nous-Hermes2 Nous-Puffin Dolly 6B Dolly 12B Alpaca 7B Alpaca Lora 7B GPT-J 6.7B LLama 7B LLama 13B Pythia 6.7B Pythia 12B Fastchat T5 Fastchat Vicuña 7B Fastchat Vicuña 13B StableVicuña RLHF StableLM Tuned StableLM Base Koala 13B Open Assistant Pythia 12B Mosaic MPT7B Mosaic mpt-instruct Mosaic mpt-chat Wizard 7B Wizard 7B Uncensored Wizard 13B Uncensored GPT4-x-Vicuna-13b Falcon 7b Falcon 7b instruct text-davinci-003

2.1.安装教程(以Window系统为例)

2.1.1.双击exe文件

图片

2.1.2.点击下一步

图片

2.1.3.选择安装目录,点击下一步

图片

2.1.4.点击下一步

图片

2.1.5.勾选“我接受许可”,点击下一步

图片

2.1.6.点击下一步

图片

2.1.7.点击安装

图片

2.1.8.等待安装

图片

2.1.9.安装完成,点击下一步,点击完成即可

图片

2.2.使用教程

2.2.1.桌面上找到GPT4All,双击打开

图片

2.2.2.下载我们想要的模型,这里以目前在开源大模型领域,最强的Llama3为例!

图片

图片

2.2.3.选择下载的模型进行对话

图片

3.方案二:LMstudio

LM Studio 是一个桌面应用程序,用于在计算机上运行本地 Ai大模型LLMs 。发现、下载并运行本地 LLMs!

支持常见的Ai大模型

图片

Llama 3

Phi 3

Falcon

Mistral

StarCoder

Gemma

3.1.安装教程(以window为例)

3.1.1.双击exe文件

图片

3.1.2.点击仍要运行

图片

3.1.3.自动安装完成

图片

图片

3.2.使用教程

3.2.1.桌面上找到LMstudio,双击运行

图片

3.2.2.下载我们需要的模型(国内的小伙伴可能无法下载模型,我准备了一个模型)

以Llama 3为例演示!把我们的模型放到对应的文件夹中

图片

图片

注意:要在models下新建两级文件夹Publisher、Repository,模型文件放到Repository中

图片

3.2.3.选择模型,开始对话

图片

图片

4.方案三:Ollama

本地启动并运行大型语言模型。支持运行 Llama 3、Phi 3、Mistral、Gemma 和其他模型。定制和创建您自己的模型。

图片

4.1.安装教程

4.1.1.双击exe文件

图片

4.1.2.点击“Install”即可自动安装

图片

图片

4.1.3.安装完成

图片

4.1.4.安装Docker
  • 双击exe文件

图片

  • 点击ok等待安装完成

图片

图片

  • 重启电脑

图片

  • 点击Accept

图片

  • 点击Finish

图片

4.1.5.本地安装webUI

在CMD中安装,win+r,输入CMD即可

在CPU下运行:docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

在GPU下运行:docker run -d -p 3000:8080 --gpus=all -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama

图片

安装完成通过本地地址:http://127.0.0.1:3000 进行访问,看到下方页面说明安装成功!

图片

4.2.使用教程

4.2.1.点击Sign up注册账号即可使用

图片

4.2.2.下载我们想要的模型

图片

图片

图片

4.2.3.选择下载的模型,进行对话

图片

如何学习AI大模型?

作为一名热心肠的互联网老兵,我决定把宝贵的AI知识分享给大家。 至于能学习到多少就看你的学习毅力和能力了 。我已将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

在这里插入图片描述

一、全套AGI大模型学习路线

AI大模型时代的学习之旅:从基础到前沿,掌握人工智能的核心技能!

img

二、640套AI大模型报告合集

这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。

img

三、AI大模型经典PDF籍

随着人工智能技术的飞速发展,AI大模型已经成为了当今科技领域的一大热点。这些大型预训练模型,如GPT-3、BERT、XLNet等,以其强大的语言理解和生成能力,正在改变我们对人工智能的认识。 那以下这些PDF籍就是非常不错的学习资源。

img

四、AI大模型商业化落地方案

img

作为普通人,入局大模型时代需要持续学习和实践,不断提高自己的技能和认知水平,同时也需要有责任感和伦理意识,为人工智能的健康发展贡献力量。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/小惠珠哦/article/detail/887178
推荐阅读
相关标签
  

闽ICP备14008679号