当前位置:   article > 正文

ollama 使用技巧集锦

ollama 使用技巧集锦

模型所在磁盘空间不足了怎么办?

Windows

Windows 下Ollama 默认使用系统盘(一般为C盘)来存放模型文件,

模型文件普遍又比较大,有没有办法移动别的盘?

先来看看帮助信息,

ollama.exe serve --help

返回

  1. Start ollama
  2. Usage:
  3.   ollama serve [flags]
  4. Aliases:
  5.   serve, start
  6. Flags:
  7.   -h, --help   help for serve
  8. Environment Variables:
  9.     OLLAMA_HOST         The host:port to bind to (default "127.0.0.1:11434")
  10.     OLLAMA_ORIGINS      A comma separated list of allowed origins.
  11.     OLLAMA_MODELS       The path to the models directory (default is "~/.ollama/models")
  12.     OLLAMA_KEEP_ALIVE   The duration that models stay loaded in memory (default is "5m")

从帮助文件可以看,我们通过设置环境变量(OLLAMA_MODELS)来指定模型目录,可以通过系统设置里来配置环境变量(系统变量或者用户变量)

设置环境变量

也可以通过命令行来配置

set OLLAMA_MODELS=d:\ollama

如果需要从其他电脑上通过IP地址访问模型,则可以将OLLAMA_HOST设置为0.0.0.0:11434,设置完成后要重启电脑。

Linux 和mac下

默认地址是~/.ollama/models, 如果想移到别的目录,

同样是设置环境变量OLLAMA_MODELS

export OLLAMA_MODELS=/data/ollama

导出某个模型

这里以qwen:7b为例,先查看模型信息,

ollama show --modelfile qwen:7b

返回

  1. # Modelfile generated by "ollama show"
  2. To build a new Modelfile based on this one, replace the FROM line with:
  3. FROM qwen:7b
  4. FROM /Users/m2max/.ollama/models/blobs/sha256-87f26aae09c7f052de93ff98a2282f05822cc6de4af1a2a159c5bd1acbd10ec4
  5. TEMPLATE """{{ if .System }}<|im_start|>system
  6. {{ .System }}<|im_end|>{{ end }}<|im_start|>user
  7. {{ .Prompt }}<|im_end|>
  8. <|im_start|>assistant
  9. """
  10. PARAMETER stop "<|im_start|>"
  11. PARAMETER stop "<|im_end|>"

从模型文件信息里得知 /Users/m2max/.ollama/models/blobs/sha256-46bb65206e0e2b00424f33985a5281bd21070617ebcfda9be86eb17e6e00f793 即为我们想要的qwen:7b (格式为gguf),导出代码为

cp /Users/m2max/.ollama/models/blobs/sha256-46bb65206e0e2b00424f33985a5281bd21070617ebcfda9be86eb17e6e00f793 qwen_7b.gguf

Windows下 运行

 ollama.exe show --modelfile qwen:7b

返回

  1. # Modelfile generated by "ollama show"
  2. To build a new Modelfile based on this one, replace the FROM line with:
  3. FROM qwen:7b
  4. FROM C:\Users\steven\.ollama\models\blobs\sha256-87f26aae09c7f052de93ff98a2282f05822cc6de4af1a2a159c5bd1acbd10ec4
  5. TEMPLATE """{{ if .System }}<|im_start|>system
  6. {{ .System }}<|im_end|>{{ end }}<|im_start|>user
  7. {{ .Prompt }}<|im_end|>
  8. <|im_start|>assistant
  9. """
  10. PARAMETER stop "<|im_start|>"
  11. PARAMETER stop "\"<|im_end|>\""

导出代码为

copy C:\Users\steven\.ollama\models\blobs\sha256-87f26aae09c7f052de93ff98a2282f05822cc6de4af1a2a159c5bd1acbd10ec4 qwen_7b.gguf

如何导入模型

如何下载网上的某个模型

可以从hugggingface.co 或者镜像网站hr-mirror.com 下载所需gguf格式的大模型(不然得自己转) 假设我们要下载的是这两天大火的斯坦福的模型Octopus-v2, 搜Octopus-v2,找有GGUF标识的,

手动下载模型

比如我们选择个链接 https://hf-mirror.com/brittlewis12/Octopus-v2-GGUF/tree/main 下载octopus-v2.Q8_0.gguf

如何导入模型

需要准备Modelfile文件

From /path/to/qwen_7b.gguf

上面是最简单的办法 当然可以从上面模型信息生成完成版本的Modelfile

  1. # Modelfile generated by "ollama show"
  2. To build a new Modelfile based on this one, replace the FROM line with:
  3. FROM qwen:7b
  4. FROM /path/to/qwen_7b.gguf
  5. TEMPLATE """{{ if .System }}<|im_start|>system
  6. {{ .System }}<|im_end|>{{ end }}<|im_start|>user
  7. {{ .Prompt }}<|im_end|>
  8. <|im_start|>assistant
  9. """
  10. PARAMETER stop "<|im_start|>"
  11. PARAMETER stop "\"<|im_end|>\""

记得替换你的模型的完整路径 另外不同模型的template 和 stop parameter不同,这个不知道就不写,或者网上搜索 然后执行

ollama create qwen:7-f Modelfile

导入自己下载的模型

导入模型的时候,确保硬盘可用空间在模型大小的2倍以上,

  1. transferring model data 复制一个完整的模型
  2. creating model layer  生成一个新的模型文件,和原来模型大小一样, 结束后会删除掉?生成一个很小的layer文件

第三方应用如何访问ollama

ollama提供了OpenAI的兼容API 这里以沉浸式翻译为例 需要设置环境变量 OLLAMA_ORIGINS 接受的设置为

'*' 或者包括 http://,https://,chrome-extension://,safari-extension://,moz-extension://,ms-browser-extension://

使用*, 意味着任何应用都可以访问ollama,如果你没有特别的要求,可以考虑用它。

OLLAMA_ORIGINS=*

沉浸式翻译配置ollama API 

试试,我用的qwen:14b,效果还可以吧?

转自:

ollama 使用技巧集锦

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/盐析白兔/article/detail/810596
推荐阅读
相关标签
  

闽ICP备14008679号