当前位置:   article > 正文

Ollama-部署运行大模型Gemma_ollama run gemma:2b

ollama run gemma:2b

Ollama (Ollama) 是一款命令行工具,可在 macOS 、 Linux 、Windows 上本地运行 Llama 2、Code Llama 、Gemma 等模型。

工具下载网址:Ollama

支持的数据模型:支持模型

1、根据 pc 系统安装ollama,安装之后并运行。

2、打开命令行工具窗口:

ollama run gemma:2b

3、模型安装完成,我这边选择的是 gemma:2b ,接着就可以直接使用了。

4、还可以直接 api 调用:

  1. curl http://localhost:11434/api/generate -d '{
  2. "model": "gemma:2b",
  3. "prompt":"什么是量子纠缠?"
  4. }'

本机命令行使用和接口调用都使用正常,根据你的需求选择不同的模型下载使用吧。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/小小林熬夜学编程/article/detail/732296
推荐阅读
相关标签
  

闽ICP备14008679号