当前位置:   article > 正文

Ollama常用信息_ollama library 哪个对中文最好

ollama library 哪个对中文最好

目录

常用命令

常用模型

运行模型


常用命令

输入 Ollama 命令,正常的得出命令行输出,表示已经安装成功,下面有 ollama 的常用命令:

  1. Usage:
  2. ollama [flags]
  3. ollama [command]
  4. Available Commands:
  5. serve Start ollama
  6. create Create a model from a Modelfile
  7. show Show information for a model
  8. run Run a model
  9. pull Pull a model from a registry
  10. push Push a model to a registry
  11. list List models
  12. cp Copy a model
  13. rm Remove a model
  14. help Help about any command
  15. Flags:
  16. -h, --help help for ollama
  17. -v, --version Show version information
  18. Use "ollama [command] --help" for more information about a command.

常用模型

我们可以在 https://ollama.com/library 中搜索已有我们想要的模型库。以下是一些流行的模型:

模型参数尺寸执行下载
Llama 27B3.8GBollama run llama2
Mistral7B4.1GBollama run mistral
Code Llama7B3.8GBollama run codellama
Llama 2 Uncensored7B3.8GBollama run llama2-uncensored
Llama 2 13B13B7.3GBollama run llama2:13b
Llama 2 70B70B39GBollama run llama2:70b
Gemma2B1.4GBollama run gemma:2b
Gemma7B4.8GBollama run gemma:7b

这里大概列出了 LlamaMistral 以及 Gemma 我们景见的模型以及参数以及尺寸大小。由图表可以看出 Gemma 2B 模型的尺寸还是比较小的,初学者入门。

运行模型

 ollama run qwen # 运行千问大模型
因为qwen 模型对中文支持比较好,这里使用 qwen 模型进行聊天

直接使用 run 命令 + 模型名字就可以运行模型。如果之前没有下载过,那么会自动下载。下载完毕之后可以在终端中直接进行对话 qwen 模型了。

直接在终端中对话

使用 api 方式运行

  1. curl http://localhost:11434/api/chat -d '{
  2. "model": "qwen",
  3. "messages": [
  4. { "role": "user", "content": "why is the sky blue?" }
  5. ]
  6. }'

api 访问的方式:模型在不断推送字段。我们需要自己处理。
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/小惠珠哦/article/detail/859746
推荐阅读
相关标签
  

闽ICP备14008679号