赞
踩
不可商用!!仅仅提供学习使用!
Ollama教程,本地部署大模型Ollama,docker安装方法,仅供学习使用!
资料获取 :
Ollama下载包和安装文档在这里: 阿里云地址
https://www.alipan.com/s/ft9WkSX5zbH
点击链接保存,或者复制本段内容,打开「阿里云盘」APP ,无需下载极速在线查看,视频原画倍速播放。
Ollama教程:本地部署大模型Ollama
Ollama是一个开源的大型语言模型服务工具,它帮助用户快速在本地运行大模型。用户可以通过简单的安装指令,在本地运行开源大型语言模型,如Llama 2等。
ollama run llama2
.ollama/models
文件夹中。你可以通过配置环境变量OLLAMA_MODELS
来指定模型路径。ollama run llama3
来默认安装8B模型,或者使用ollama run llama3:8b
来指定安装8B模型。curl -s -L <https://nvidia.github.io/libnvidia-container/stable/rpm/nvidia-container-toolkit.repo> | sudo tee /etc/yum.repos.d/nvidia-container-toolkit.repo
sudo yum install -y nvidia-container-toolkit
sudo nvidia-ctk runtime configure --runtime=docker
sudo systemctl restart docker
docker run -d --restart=always --gpus=all -v /mydata/docker/local/ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama
docker run -d --restart=always --device /dev/kfd --device /dev/dri -v /mydata/docker/local/ollama/ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama:rocm
docker exec -it ollama ollama run llama3
以上是关于Ollama本地部署和Docker安装方法的详细教程。
完成这些步骤后,Ollama应该已成功从您的设备中卸载。
如果您决定不再使用Ollama,可以通过以下步骤将其完全从系统中移除:
停止并禁用服务:
sudo systemctl stop ollama
sudo systemctl disable ollama
删除服务文件和Ollama二进制文件:
sudo rm /etc/systemd/system/ollama.service
sudo rm $(which ollama)
清理Ollama用户和组:
sudo rm -r /usr/share/ollama
sudo userdel ollama
sudo groupdel ollama
配置Ollama的模型路径通常涉及到设置环境变量,这样Ollama就能知道在哪里查找和加载模型文件。以下是一般步骤来配置Ollama的模型路径:
确定模型存储位置:
首先,你需要确定你的模型文件存放在哪个目录下。这个目录可以是本地文件系统上的任何位置。
设置环境变量:
在Unix/Linux系统中,你可以使用export
命令来设置环境变量。在Windows系统中,你可以通过“系统属性”->“高级”->“环境变量”来设置。
对于Unix/Linux系统,你可以打开你的shell配置文件(比如~/.bashrc
或~/.bash_profile
),并添加以下行来设置环境变量:
bash复制代码
export OLLAMA_MODELS=/path/to/your/models |
替换/path/to/your/models
为你的模型实际存放的目录路径。
然后,你需要使这个更改生效。如果你已经打开了shell,你可以运行source ~/.bashrc
(或你的配置文件名)来加载新的环境变量。否则,你可以关闭并重新打开你的shell。
对于Windows系统,你需要:
OLLAMA_MODELS
和变量值(即你的模型路径)。重启Ollama:
如果你已经运行了Ollama服务,你可能需要重启它以使新的环境变量设置生效。这通常可以通过停止服务并重新启动来完成。
验证配置:
在Ollama中运行一个命令来加载或列出模型,以确保Ollama能够正确找到并加载模型文件。
注意,Ollama的确切配置方法可能会根据其版本和文档有所不同。因此,建议参考Ollama的官方文档或GitHub存储库中的README文件以获取最准确的信息。此外,如果Ollama提供了一个配置文件或命令行选项来设置模型路径,那么你也可以使用那些方法。
当您提到找不到环境变量在哪里时,我理解您可能是在询问如何在不同的操作系统中查看或设置环境变量。以下是在不同操作系统中查看和设置环境变量的清晰步骤:
MY_ENV_VAR
)和变量值(如C:\path\to\your\directory
)。printenv
命令查看所有环境变量。echo $VARIABLE_NAME
(将VARIABLE_NAME
替换为您要查看的变量名)来查看特定环境变量的值。export VARIABLE_NAME=value
命令(将VARIABLE_NAME
替换为您要设置的变量名,value
替换为值)。/etc/profile
、/etc/environment
或/etc/bash.bashrc
文件(取决于您的系统和需求)。~/.bashrc
、~/.bash_profile
、~/.profile
或~/.zshrc
文件(取决于您使用的shell)。export VARIABLE_NAME=value
。source ~/.bashrc
)或重新登录以使更改生效。printenv
命令查看所有环境变量。echo $VARIABLE_NAME
(将VARIABLE_NAME
替换为您要查看的变量名)来查看特定环境变量的值。export VARIABLE_NAME=value
命令(将VARIABLE_NAME
替换为您要设置的变量名,value
替换为值)。/etc/profile
或/etc/launchd.conf
文件(但请注意,/etc/launchd.conf
在较新版本的macOS中可能不再使用)。~/.bash_profile
、~/.zshrc
或~/.profile
文件(取决于您使用的shell)。export VARIABLE_NAME=value
。source ~/.bash_profile
或source ~/.zshrc
)或重新登录以使更改生效。Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。